Pour développer mon commentaire en une réponse: la forme multiplicative de la borne de Chernoff dit que si l'espérance pour la somme des variables binaires aléatoires indépendantes est , alors la probabilité de s'égarer ' trop loin 'de cette attente va comme: .X=∑ni=0XiμPr(X>(1+δ)μ)<(eδ(1+δ)(1+δ))μ
Maintenant, imaginez une procédure où, étant donné une chaîne à tester, nous exécutons essais de notre algorithme (pour certains à choisir plus tard) et acceptons au moins de ces essais acceptent . Nous pouvons utiliser la borne de Chernoff pour trouver la probabilité de défaillance en termes de comme suit:σnBPP(0.90,0.95)n0.925nσn
Soit le résultat du ème essai, et donc le nombre d'essais réussis. Nous pouvons supposer prudemment que notre probabilité de faux positifs est de ; cela signifie que si nous faisons essais indépendants sur une chaîne , le nombre attendu de succès est . (Notez qu'une probabilité de faux positif inférieure à conduira à une valeur attendue encore plus faible et donc à des limites encore plus strictes sur les estimations à venir.) Maintenant, regardons la probabilité que nous ayons plus de faux positifs (c'est-à-dire , que ). Nous prenonsXiiX=∑Xi.9nσ∉Lμ=E(X)=0.9n.90.925nX>0.925nδ=(0.9250.9)−1=136 ; puis et nous avons donc .(eδ(1+δ)(1+δ))≈.99961<29993000Pr ( X> 0,925 n ) <(29993000)0,9 n
De là, il devrait être clair qu'en prenant suffisamment grand, nous pouvons réduire cette probabilité à . Ainsi, pour ce suffisamment grand , si nous acceptons la chaîne uniquement si le nombre d'essais réussis sur est supérieur à , alors notre probabilité d'accepter une chaîne tombe en dessous de . Notez que ce est constant , ne dépend pas de la taille de notre problème; puisque nous exécutons notre polynomialn<13nσσ.925 nσ∉ L13nB PP( 0,9 , 0,95 )algorithme un nombre constant de fois, la durée totale de notre nouvelle procédure est toujours polynomiale. Une analyse similaire allant dans l'autre sens montrera que la probabilité d'un `` faux négatif '' (que pour une chaîne qui est dans notre langue) sera limitée par pour certains , et donc nous pouvons prendre assez grand pour limiter la probabilité d'un faux négatif par (ou, en d'autres termes, pour assurer au moins probabilité d'accepter sur une chaîne ). Cela montre queX< .925 ncncn1323σ∈ LB PP( .9 , .95 ) ⊆ B PP(13,23) ≡ B PPet le commentaire de Yuval montre comment prouver l'équivalence inverse par une procédure similaire.
Canoniquement, c'est ce qu'on appelle l' amplification de probabilité et c'est une méthode extrêmement utile pour traiter les classes probabilistes. Les constantes spécifiques sont évidemment moins importantes que le fait que la limite de Chernoff nous permette de lier nos probabilités de `` faux résultats '' par une fonction exponentielle du nombre d'essais, de sorte qu'elles peuvent être rendues arbitrairement petites avec seulement un nombre modeste d'essais.