Principe Minimax de Yao sur les algorithmes de Monte Carlo


22

Le célèbre principe Minimax de Yao établit la relation entre la complexité distributionnelle et la complexité aléatoire. Laissez P un problème avec un ensemble fini des entrées et un ensemble fini de l' algorithme déterministe pour résoudre . Soit également la distribution d'entrée et let \ mathcal {R} la distribution de probabilité sur \ mathcal {A} . Le principe énonce alors \ min_ {A \ in \ mathcal {A}} \ quad \ mathbb {E} cost (A, \ mathcal {D}) \ leq \ max_ {x \ in \ mathcal {X}} \ quad \ mathbb {E} coût (\ mathcal {R}, x) \ quad \ quad \ text {pour tous $ \ mathcal {D} $ et $ \ mathcal {R} $}.XAPDRA

minAAEcost(A,D)maxxXEcost(R,x)for all D and R.
Cette preuve découle directement du théorème de minimax de von Neumann pour les jeux à somme nulle.

La plupart du temps, le principe de Yao ne concerne que les algorithmes de Las Vegas , mais il peut être généralisé aux algorithmes de Monte Carlo comme suit.

12minAAEcost2ϵ(A,D)maxxXEcostϵ(R,x)for all DR and ϵ[0,1/2]
costϵ(,) représente le coût des algorithmes de Monte Carlo qui errent la probabilité au plus ϵ .

Dans l'article original de Yao , la relation pour les algorithmes de Monte Carlo est donnée au Théorème 3 sans preuve. Une astuce pour le prouver?

Réponses:


6

Ceci est juste un commentaire étendu sur la réponse de Marcos, en utilisant sa notation. Je ne suis pas tout à fait en mesure de suivre les détails de son argument, et celui ci-dessous est assez court et facile.

En faisant la moyenne,

Aq(A)xd(x)ϵ(A,x)=xd(x)Aq(A)ϵ(A,x)λ.

Le fait ci-dessus et l'inégalité de Markov impliquent .Aβ(2λ)q(A)1/2

Nous obtenons donc:

maxxAq(A)r(A,x)xd(x)Aq(A)r(A,x)=Aq(A)xd(x)r(A,x)Aβ(2λ)q(A)xd(x)r(A,x)(Aβ(2λ)q(A))minAβ(2λ)xd(x)r(A,x)12minAβ(2λ)xd(x)r(A,x)

8

Je vais essayer ça. Je vais utiliser la notation originale de Yao. De cette façon, il sera plus facile de contraster avec son article et ses définitions.

Soit un ensemble fini d'entrées, et soit un ensemble fini d'algorithmes déterministes qui peuvent ne pas donner de réponse correcte pour certaines entrées. Soit également si donne la bonne réponse pour , et sinon. Notons également le nombre de requêtes effectuées par sur l'entrée , ou de manière équivalente, la profondeur de l' arbre de décision deA 0 ϵ ( A , x ) = 0 A x ϵ ( A , x ) = 1 r ( A , x ) A x AIA0ϵ(A,x)=0Axϵ(A,x)=1r(A,x)AxA

Coût moyen: étant donné une distribution de probabilité sur I , le coût moyen d'un algorithme A A 0 est C ( A , d ) = x I d ( x ) r ( A , x ) .dIAA0C(A,d)=xId(x)r(A,x)

Complexité distributionnelle: Soit . Pour toute distribution d sur les entrées, soit β ( λ ) le sous-ensemble de A 0 donné par β ( λ ) = { A : A A 0 , x I d ( x ) ϵ ( A , x ) λ }λ[0,1]dβ(λ)A0β(λ)={A:AA0,xId(x)ϵ(A,x)λ}. La complexité distributionnelle avec l'erreur pour un problème de calcul P est définie comme F 1 , λ ( P ) = max d min A β ( λ ) C ( A , d ) .λPF1,λ(P)=maxdminAβ(λ)C(A,d)

-tolérance:λUne distribution sur la famille A 0 est λ -tolérante si max x IA A 0 q ( A ) ϵ ( A , x ) λ .qA0λmaxxIAA0q(A)ϵ(A,x)λ

Coût prévu: Pour un algorithme randomisé , soit q une distribution de probabilité qui est tolérante à λ sur A 0 . Le coût attendu de R pour une entrée donnée x est E ( R , x ) = A A 0 q ( A ) r ( A , x ) .RqλA0RxE(R,x)=AA0q(A)r(A,x)

Complexité aléatoire: Soit . La complexité aléatoire avec l'erreur λ est F 2 , λ = min R max x I E ( R , x ) .λ[0,1]λF2,λ=minRmaxxIE(R,x)

Nous sommes maintenant prêts à nous lancer en affaires. Ce que nous voulons prouver est donné une distribution sur les entrées et un algorithme randomisé R (ie, une distribution q sur A 0 )dRqA0

Principe Minimax de Yao pour les algorithmes de Montecarlo pourλ[0,une/2].

maxxIE(R,x)12minAβ(2λ)C(A,d)
λ[0,1/2]

Je suivrai une approche donnée par Fich, Meyer auf der Heide, Ragde et Wigderson (voir Lemme 4). Leur approche ne donne pas de caractérisation pour les algorithmes de Las Vegas (seulement la borne inférieure), mais elle est suffisante pour nos besoins. D'après leur preuve, il est facile de voir que pour tout et IA0I

Réclamation 1. .maxxIE(R,x)minAA0C(A,d)

Pour obtenir les bons chiffres, nous ferons quelque chose de similaire. Étant donné que la distribution de probabilité donnée par l'algorithme randomisé R est λ -tolérante sur A 0, nous avons que λqRλA0 Si nous remplaçons la familleA0parβ(2λ),nous voyons que

λmaxxI{AA0q(A)ϵ(A,x)}xId(x)AA0q(a)ϵ(A,x)=AA0q(a)xId(x)ϵ(A,x)minAA0{xId(x)ϵ(A,x)}.
A0β(2λ)

λmaxxI{AA0q(A)ϵ(A,x)}maxxI{Aβ(2λ)q(A)ϵ(A,x)}xId(x)Aβ(2λ)q(a)ϵ(A,x)=Aβ(2λ)q(a)xId(x)ϵ(A,x)minAβ(2λ){12xId(x)ϵ(A,x)},

où la deuxième inégalité suit parce que , et la dernière inégalité est donnée par la définition de β ( 2 λ ) où la somme divisée par 2 ne peut pas être supérieure à λ . Par conséquent, max x I { A A 0 q ( A ) ϵ ( A , x ) }1β(2λ)A0β(2λ)λ

maxxI{AA0q(A)ϵ(A,x)}12minAβ(2λ){xId(x)ϵ(A,x)}.

En notant que correspond à { 0 , 1 } et r correspond à N et à la revendication 1 ci-dessus, nous pouvons maintenant remplacer en toute sécurité la fonction ϵ dans l'inégalité ci-dessus par r ( A , x ) pour obtenir l'inégalité souhaitée.ϵ{0,1}rNϵr(A,x)


Existe-t-il une brève explication de l'origine du facteur 2?
Robin Kothari

en bref, cela vient de la définition de . La somme dans la définition divisée par 2 est au plus λ . β(2λ)λ
Marcos Villagra

maxAβ(2λ)){12xId(x),ϵ(A,x)}λ

ϵr

concernant votre première question, j'ai ajouté plus de détails.
Marcos Villagra
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.