Je vous suggère d'utiliser le cadre trouvé dans le document suivant:
Jusqu'où peut-on aller au-delà de la cryptanalyse linéaire? , Thomas Baignères, Pascal Junod, Serge Vaudenay, ASIACRYPT 2004.
Le résultat crucial dit que vous avez besoin de , où D ( D 0n∼1/D(D0||D1) est la distance de Kullback-Leibler entre les deux distributions D 0 et D 1 . En élargissant la définition de la distance KL, nous voyons que dans votre casD(D0||D1)D0D1
D(D0||D1)=plogpp+ϵ+(1−p)log1−p1−p−ϵ,
avec la convention que .0log0p=0
Lorsque , on trouve D ( D 0p≫ϵ . Ainsi, lorsque p ≫ ϵ , nous constatons que vous avez besoin de n ∼ p ( 1 - p ) / ϵ 2 tours de pièces. Lorsque p = 0 , on trouve D ( D 0D(D0||D1)≈ϵ2/(p(1−p))p≫ϵn∼p(1−p)/ϵ2p=0 , vous avez donc besoin de n ∼ 1 / ϵ tours de pièces. Ainsi, cette formule est cohérente avec les cas particuliers que vous connaissez déjà ... mais elle se généralise à tous les n , ϵ .D(D0||D1)=−log(1−ϵ)≈ϵn∼1/ϵn,ϵ
Pour la justification, voir l'article.
Lorsque , la justification est facile à travailler à la main. Avec n observations, le nombre de têtes est soit binomial ( n , p ) ou binomial ( n , p + ϵ ) , donc vous voulez trouver le plus petit n tel que ces deux distributions puissent être distinguées.p≫ϵnBinomial(n,p)Binomial(n,p+ϵ)n
Vous pouvez approximer les deux par un gaussien avec la bonne moyenne et la bonne variance, puis utiliser des résultats standard sur la difficulté de distinguer deux gaussiens, et la réponse devrait tomber. L'approximation est bonne si environ.p≥5/n
En particulier, cela revient à distinguer de N ( μ 1 , σ 2 1 ) où μ 0 = p n , μ 1 = p + ϵ ) n , σ 2 0 = p ( 1 - p ) n , σ 2 1 = ( p + ϵ )N(μ0,σ20)N(μ1,σ21)μ0=pnμ1=p+ϵ)nσ20=p(1−p)n . Vous constaterez que la probabilité d'erreur dans le séparateur optimal est erfc ( z ) où z = ( μ 1 - μ 0 ) / ( σ 0 + σ 1 ) ≈ ϵ √σ21=(p+ϵ)(1−p−ϵ)nerfc(z)z=(μ1−μ0)/(σ0+σ1)≈ϵn/2p(1−p)−−−−−−−−−−√z∼1n∼2p(1−p)/ϵ2p≫ϵ
Pour le cas général ... voir l'article.