Voici les limites inférieures que je peux montrer. Je suppose que pour un fixe , la borne inférieure droite est , mais naturellement je peux me tromper.Ω ( log n )ϵΩ ( logn )
Je vais utiliser une séquence décroissante (juste pour plus de commodité). Le mécanisme de base consiste à diviser la séquence en blocs. Dans le ème bloc, il y aura éléments (c'est-à-dire, ).i n i ∑ i n i = nLjenje∑jenje= n
Dans ce qui suit, nous voulons que l'algorithme réussisse avec la probabilité , pour certains paramètres .δ > 0≥ 1 - δδ> 0
Première borne inférieure: .Ω ( 1ϵJournal1δ)
Le ème bloc a n i = 2 i - 1 éléments, donc L = lg n . Nous fixons la valeur de tous les éléments du i ème bloc à ( 1 + X i ) / ( 2 n i L ) , où X i est une variable qui est soit 0 soit 1 . Clairement, la somme totale de cette séquence est
α = L ∑ i = 1 1 + Xjenje= 2i - 1L = lgnje( 1 + Xje)/(2niL)Xi01
Imaginez que vous choisissiez chaqueXiavec une probabilitéβ égaleà1et0sinon. Pour estimerα, nous avons besoin d'une estimation fiable deβ. En particulier, nous voulons pouvoir distinguer la baseβ=1-4ϵet, disons,β=1.
α=∑i=1L1+Xi2niL=12+12L(∑i=1LXi).
Xiβ10αββ=1−4ϵβ=1
Imaginons maintenant que l'on échantillonne de ces variables aléatoires et que Z 1 , … , Z m soient les variables échantillonnées. Paramètres Y = ∑ m i = 1 ( 1 - X i ) (notez que nous prenons la somme des variables du complément ), nous avons μ = E [ Y ] = ( 1 - β ) m , et l'inégalité de Chernoff nous dit que si β = 1 - 4mZ1, … , ZmOui= ∑mi = 1( 1 - Xje)μ = E[ Oui] = ( 1 - β) m , alors μ = 4 ε m , et la probabilité de défaillance est
P [ Y ≤ 2 ε m ] = P [ Y ≤ ( 1 - 1 / 2 ) μ ] ≤ exp ( - μ ( 1 / 2 ) 2 / 2 ) = exp ( - ϵ m / 2 ) .
Pour rendre cette quantité inférieure àβ= 1 - 4 ϵμ = 4 ϵ m
P[ Oui≤ 2 ϵ m ] = P[ Oui≤ ( 1 - 1 / 2 ) μ ] ≤ exp( - μ ( 1 / 2 )2/ 2 ) =exp( - ϵ m / 2 ) .
, nous avons besoin de
m ≥ 2δ .
m ≥ 2ϵln1δ
L'observation clé est que l'inégalité de Chernoff est étroite (il faut faire attention, car elle n'est pas correcte pour tous les paramètres, mais elle est correcte dans ce cas), donc vous ne pouvez pas faire mieux que cela (jusqu'aux constantes).
Deuxième borne inférieure: .Ω ( logn / logJournaln )
Définissez la taille du ème bloc sur n i = L i , où L = Θ ( log n / log log n ) est le nombre de blocs. Un élément du i ème bloc a la valeur α i = ( 1 / L ) / n i . La somme totale des valeurs de la séquence est donc 1 .jenje= LjeL = Θ ( logn / logJournaln )jeαje= ( 1 / L ) / nje1
Maintenant, nous pourrions décider de choisir un bloc arbitraire, disons le ème, et définir toutes les valeurs de son bloc pour être α j - 1 = L α j (au lieu de α j ). Cela augmente la contribution du j ème bloc de 1 / L à 1 , et augmente la masse totale de la séquence à (presque) 2 .jαj - 1= L αjαjj1 / L12
Désormais, de manière informelle, tout algorithme randomisé doit vérifier la valeur dans chacun des blocs. En tant que tel, il doit lire au moins valeurs de la séquence.L
Pour l'argument ci - dessus plus formel, avec une probabilité , donner la séquence originale de masse 1 comme entrée (on se réfère à ce que l' entrée d' origine). Sinon, sélectionnez au hasard le bloc qui a les valeurs augmentées (entrée modifiée). De toute évidence, si l'algorithme aléatoire lit inférieur, par exemple, L / 8 entrées, elle a une probabilité (ou moins) une / huit pour détecter une entrée modifiée. En tant que tel, la probabilité que cet algorithme échoue, s'il lit moins de L / 8 entrées, est d'au moins
( 1 - p ) ( 7 /p = 1 / deux1L / 81 / 8L / 8
( 1 - p ) ( 7 / 8 ) > 7 / 16 > 1 / 3.
PS Je pense qu'en faisant plus attention aux paramètres, la première borne inférieure peut être améliorée à .Ω ( 1 / ϵ2)