Distinguer entre deux pièces


13

Il est bien connu que la complexité de distinguer une pièce biaisée une pièce équitable est θ ( ϵ - 2 ) . Y a-t-il des résultats pour distinguer une pièce p d' une pièce p + ϵ ? Je peux voir que pour le cas particulier de p = 0 , la complexité sera ϵ - 1 . J'ai le pressentiment que la complexité dépendra de si p est de l'ordre de ϵ , mais ne peut pas le prouver aussi rigoureusement. Des conseils / références?ϵθ(ϵ2)pp+ϵp=0ϵ1pϵ

Réponses:


15

Je vous suggère d'utiliser le cadre trouvé dans le document suivant:

Jusqu'où peut-on aller au-delà de la cryptanalyse linéaire? , Thomas Baignères, Pascal Junod, Serge Vaudenay, ASIACRYPT 2004.

Le résultat crucial dit que vous avez besoin de , où D ( D 0n1/D(D0||D1) est la distance de Kullback-Leibler entre les deux distributions D 0 et D 1 . En élargissant la définition de la distance KL, nous voyons que dans votre casD(D0||D1)D0D1

D(D0||D1)=plogpp+ϵ+(1p)log1p1pϵ,

avec la convention que .0log0p=0

Lorsque , on trouve D ( D 0pϵ . Ainsi, lorsque p ϵ , nous constatons que vous avez besoin de n p ( 1 - p ) / ϵ 2 tours de pièces. Lorsque p = 0 , on trouve D ( D 0D(D0||D1)ϵ2/(p(1p))pϵnp(1p)/ϵ2p=0 , vous avez donc besoin de n 1 / ϵ tours de pièces. Ainsi, cette formule est cohérente avec les cas particuliers que vous connaissez déjà ... mais elle se généralise à tous les n , ϵ .D(D0||D1)=log(1ϵ)ϵn1/ϵn,ϵ

Pour la justification, voir l'article.


Lorsque , la justification est facile à travailler à la main. Avec n observations, le nombre de têtes est soit binomial ( n , p ) ou binomial ( n , p + ϵ ) , donc vous voulez trouver le plus petit n tel que ces deux distributions puissent être distinguées.pϵnBinomial(n,p)Binomial(n,p+ϵ)n

Vous pouvez approximer les deux par un gaussien avec la bonne moyenne et la bonne variance, puis utiliser des résultats standard sur la difficulté de distinguer deux gaussiens, et la réponse devrait tomber. L'approximation est bonne si environ.p5/n

En particulier, cela revient à distinguer de N ( μ 1 , σ 2 1 )μ 0 = p n , μ 1 = p + ϵ ) n , σ 2 0 = p ( 1 - p ) n , σ 2 1 = ( p + ϵ )N(μ0,σ02)N(μ1,σ12)μ0=pnμ1=p+ϵ)nσ02=p(1p)n . Vous constaterez que la probabilité d'erreur dans le séparateur optimal est erfc ( z ) z = ( μ 1 - μ 0 ) / ( σ 0 + σ 1 ) ϵ σ12=(p+ϵ)(1pϵ)nerfc(z)z=(μ1μ0)/(σ0+σ1)ϵn/2p(1p)z1n2p(1p)/ϵ2pϵ

Pour le cas général ... voir l'article.

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.