Je vais essayer ça. Je vais utiliser la notation originale de Yao. De cette façon, il sera plus facile de contraster avec son article et ses définitions.
Soit un ensemble fini d'entrées, et soit un ensemble fini d'algorithmes déterministes qui peuvent ne pas donner de réponse correcte pour certaines entrées. Soit également si donne la bonne réponse pour , et sinon. Notons également le nombre de requêtes effectuées par sur l'entrée , ou de manière équivalente, la profondeur de l' arbre de décision deA 0 ϵ ( A , x ) = 0 A x ϵ ( A , x ) = 1 r ( A , x ) A x AIA0ϵ(A,x)=0Axϵ(A,x)=1r(A,x)AxA
Coût moyen: étant donné une distribution de probabilité sur I , le coût moyen d'un algorithme A ∈ A 0 est C ( A , d ) = ∑ x ∈ I d ( x ) ⋅ r ( A , x ) .dIA∈A0C(A,d)=∑x∈Id(x)⋅r(A,x)
Complexité distributionnelle: Soit . Pour toute distribution d sur les entrées, soit β ( λ ) le sous-ensemble de A 0 donné par β ( λ ) = { A : A ∈ A 0 , ∑ x ∈ I d ( x ) ⋅ ϵ ( A , x ) ≤ λ }λ∈[0,1]dβ(λ)A0β(λ)={A:A∈A0,∑x∈Id(x)⋅ϵ(A,x)≤λ}. La complexité distributionnelle avec l'erreur pour un problème de calcul P est définie comme F 1 , λ ( P ) = max d min A ∈ β ( λ ) C ( A , d ) .λPF1,λ(P)=maxdminA∈β(λ)C(A,d)
-tolérance:λUne distribution sur la famille A 0 est λ -tolérante si max x ∈ I ∑ A ∈ A 0 q ( A ) ⋅ ϵ ( A , x ) ≤ λ .qA0λmaxx∈I∑A∈A0q(A)⋅ϵ(A,x)≤λ
Coût prévu: Pour un algorithme randomisé , soit q une distribution de probabilité qui est tolérante à λ sur A 0 . Le coût attendu de R pour une entrée donnée x est E ( R , x ) = ∑ A ∈ A 0 q ( A ) ⋅ r ( A , x ) .RqλA0RxE(R,x)=∑A∈A0q(A)⋅r(A,x)
Complexité aléatoire: Soit . La complexité aléatoire avec l'erreur λ est F 2 , λ = min R max x ∈ I E ( R , x ) .λ∈[0,1]λF2,λ=minRmaxx∈IE(R,x)
Nous sommes maintenant prêts à nous lancer en affaires. Ce que nous voulons prouver est donné une distribution sur les entrées et un algorithme randomisé R (ie, une distribution q sur A 0 )dRqA0
Principe Minimax de Yao pour les algorithmes de Montecarlo
pourλ∈[0,une/2].
maxx∈IE(R,x)≥12minA∈β(2λ)C(A,d)
λ∈[0,1/2]
Je suivrai une approche donnée par Fich, Meyer auf der Heide, Ragde et Wigderson (voir Lemme 4). Leur approche ne donne pas de caractérisation pour les algorithmes de Las Vegas (seulement la borne inférieure), mais elle est suffisante pour nos besoins. D'après leur preuve, il est facile de voir que pour tout et IA0I
Réclamation 1. .maxx∈IE(R,x)≥minA∈A0C(A,d)
Pour obtenir les bons chiffres, nous ferons quelque chose de similaire. Étant donné que la distribution de probabilité donnée par l'algorithme randomisé R est λ -tolérante sur A 0, nous avons que
λqRλA0
Si nous remplaçons la familleA0parβ(2λ),nous voyons que
λ≥maxx∈I{∑A∈A0q(A)⋅ϵ(A,x)}≥∑x∈Id(x)∑A∈A0q(a)⋅ϵ(A,x)=∑A∈A0q(a)∑x∈Id(x)⋅ϵ(A,x)≥minA∈A0{∑x∈Id(x)⋅ϵ(A,x)}.
A0β(2λ)
λ≥maxx∈I{∑A∈A0q(A)⋅ϵ(A,x)}≥maxx∈I⎧⎩⎨∑A∈β(2λ)q(A)⋅ϵ(A,x)⎫⎭⎬≥∑x∈Id(x)∑A∈β(2λ)q(a)⋅ϵ(A,x)=∑A∈β(2λ)q(a)∑x∈Id(x)⋅ϵ(A,x)≥minA∈β(2λ){12∑x∈Id(x)⋅ϵ(A,x)},
où la deuxième inégalité suit parce que , et la dernière inégalité est donnée par la définition de β ( 2 λ ) où la somme divisée par 2 ne peut pas être supérieure à λ . Par conséquent,
max x ∈ I { ∑ A ∈ A 0 q ( A ) ⋅ ϵ ( A , x ) } ≥ 1β(2λ)⊆A0β(2λ)λ
maxx∈I{∑A∈A0q(A)⋅ϵ(A,x)}≥12minA∈β(2λ){∑x∈Id(x)⋅ϵ(A,x)}.
En notant que correspond à { 0 , 1 } et r correspond à N et à la revendication 1 ci-dessus, nous pouvons maintenant remplacer en toute sécurité la fonction ϵ dans l'inégalité ci-dessus par r ( A , x ) pour obtenir l'inégalité souhaitée.ϵ{0,1}rNϵr(A,x)