Prouver ou réfuter: BPP (0,90,0,95) = BPP


8

J'aimerais vraiment votre aide pour prouver ou réfuter la revendication suivante: . Dans la théorie de la complexité computationnelle, BPP, qui signifie temps polynomial probabiliste à erreurs bornées, est la classe de problèmes de décision pouvant être résolus par une machine de Turing probabiliste en temps polynomial, avec une probabilité d'erreur d'au plus pour toutes les instances . .BPP(0,90,0,95)=BPP13BPP=BPP(13,23)

Il n'est pas immédiat que l'un des ensembles soit un sous-ensemble de l'autre, car si la probabilité d'erreur est inférieure à elle ne doit pas être inférieure à et si elle est supérieure à il ne doit pas être supérieur à .0,913230,905

J'essaie d'utiliser l'inégalité de Chernoff pour prouver la demande, je ne sais pas exactement comment. J'aimerais vraiment votre aide. Y a-t-il une réclamation générale concernant ces relations que je peux utiliser?


Je ne sais pas ce que signifie la notation BPP (x, y). Est-ce qu'une chaîne qui n'est pas dans la langue est acceptée avec une probabilité non supérieure à x et une chaîne dans la langue est acceptée avec une probabilité supérieure à y?
Matt Lewis

Exactement, vous avez raison.
Numérateur

4
Astuce: si vous exécutez essais sur une chaîne qui n'est pas dans votre langue, quelle est la probabilité que plus que par exemple d'entre eux acceptent la chaîne? Si vous exécutez essais sur une chaîne qui est dans la langue, quelle est la probabilité que moins de d'entre eux rejettent la chaîne? Qu'arrive-t-il à vos probabilités d'acceptation / rejet si vous exécutez essais et dites «acceptez toute chaîne acceptée par plus de exécutions», comme ? n.9 n+cnn.95 n-cnn.925 nn
Steven Stadnicki

4
L'astuce de Steven Stadnicki est de montrer que . Pour l'autre sens, montrez que pour chaque . De la même manière, vous pouvez montrer que pour toutes les constantes . BPP(0,9,0,95)BPP(1/3,2/3)BPP(1/3,2/3)BPP(ϵ,1-ϵ)ϵBPP=BPP(α,β)0<α<β<1
Yuval Filmus

Réponses:


12

Pour développer mon commentaire en une réponse: la forme multiplicative de la borne de Chernoff dit que si l'espérance pour la somme des variables binaires aléatoires indépendantes est , alors la probabilité de s'égarer ' trop loin 'de cette attente va comme: .X=i=0nXiμPr(X>(1+δ)μ)<(eδ(1+δ)(1+δ))μ

Maintenant, imaginez une procédure où, étant donné une chaîne à tester, nous exécutons essais de notre algorithme (pour certains à choisir plus tard) et acceptons au moins de ces essais acceptent . Nous pouvons utiliser la borne de Chernoff pour trouver la probabilité de défaillance en termes de comme suit:σnBPP(0.90,0.95)n0.925nσn

Soit le résultat du ème essai, et donc le nombre d'essais réussis. Nous pouvons supposer prudemment que notre probabilité de faux positifs est de ; cela signifie que si nous faisons essais indépendants sur une chaîne , le nombre attendu de succès est . (Notez qu'une probabilité de faux positif inférieure à conduira à une valeur attendue encore plus faible et donc à des limites encore plus strictes sur les estimations à venir.) Maintenant, regardons la probabilité que nous ayons plus de faux positifs (c'est-à-dire , que ). Nous prenonsXiiX=Xi.9nσLμ=E(X)=0.9n.90.925nX>0.925nδ=(0.9250.9)1=136 ; puis et nous avons donc .(eδ(1+δ)(1+δ)).99961<29993000Pr(X>0,925n)<(29993000)0,9n

De là, il devrait être clair qu'en prenant suffisamment grand, nous pouvons réduire cette probabilité à . Ainsi, pour ce suffisamment grand , si nous acceptons la chaîne uniquement si le nombre d'essais réussis sur est supérieur à , alors notre probabilité d'accepter une chaîne tombe en dessous de . Notez que ce est constant , ne dépend pas de la taille de notre problème; puisque nous exécutons notre polynomialn<13nσσ.925nσL13nBPP(0,9,0,95)algorithme un nombre constant de fois, la durée totale de notre nouvelle procédure est toujours polynomiale. Une analyse similaire allant dans l'autre sens montrera que la probabilité d'un `` faux négatif '' (que pour une chaîne qui est dans notre langue) sera limitée par pour certains , et donc nous pouvons prendre assez grand pour limiter la probabilité d'un faux négatif par (ou, en d'autres termes, pour assurer au moins probabilité d'accepter sur une chaîne ). Cela montre queX<.925ncncn1323σLBPP(.9,.95)BPP(13,23)BPPet le commentaire de Yuval montre comment prouver l'équivalence inverse par une procédure similaire.

Canoniquement, c'est ce qu'on appelle l' amplification de probabilité et c'est une méthode extrêmement utile pour traiter les classes probabilistes. Les constantes spécifiques sont évidemment moins importantes que le fait que la limite de Chernoff nous permette de lier nos probabilités de `` faux résultats '' par une fonction exponentielle du nombre d'essais, de sorte qu'elles peuvent être rendues arbitrairement petites avec seulement un nombre modeste d'essais.


2
Vous n'avez pas vraiment besoin de la liaison de Chernoff ici, Chebyshev suffit.
Yuval Filmus

@YuvalFilmus Oh, certainement; depuis OP a mentionné Chernoff spécifiquement, je pensais que j'irais dans cette voie, et à part la forme maladroite de la constante, c'est à mon humble avis en fait un peu plus facile car vous n'avez pas besoin de creuser les résultats (aussi simples soient-ils) sur la variance d'une distribution binomiale.
Steven Stadnicki
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.