Donc, fondamentalement, il y a trois questions en jeu.
Je sais que E( Xk) = ( nk)⋅p(k2) , mais comment le prouver?
Vous utilisez la linéarité de l'attente et une réécriture intelligente. Tout d'abord, notez que
Maintenant, en prenant l'espérance de , on peut simplement extraire la somme (en raison de la linéarité) et obtenir
En extrayant la somme, nous avons éliminé toutes les dépendances possibles entre les sous-ensembles de nœuds. Quelle est donc la probabilité que soit une clique? Eh bien, quelle que soit la composition de , toutes les probabilités de front sont égales. Par conséquent,XkE(Xk)= ∑ T ⊆ V ,
Xk=∑T⊆V,|T|=k1[T is clique].
XkTTPr[T est clique]=p ( kE(Xk)=∑T⊆V,|T|=kE(1[T is clique])=∑T⊆V,|T|=kPr[T is clique]
TTPr[T is clique]=p(k2), car toutes les arêtes de ce sous-graphique doivent être présentes. Et puis, le terme interne de la somme ne dépend plus de , nous laissant avec .
E ( X k ) = p ( kTE(Xk)=p(k2)∑T⊆V,|T|=k1=(nk)⋅p(k2)
Comment montrer que pour :E ( X log 2 n ) ≥ 1n→∞E(Xlog2n)≥1
Je ne suis pas tout à fait sûr que ce soit même correct. En appliquant une borne sur le coefficient binomial, on obtient
E(Xlogn)=(nlogn)⋅p(logn2)≤⎛⎝nep(logn)4logn⎞⎠logn=(ne⋅n(logp)/4logn)logn.
(Notez que j'ai à peu près la limite supérieure par .) Cependant, maintenant on pourrait choisir , et obtenir cela , ce qui fait que le terme entier passe à pour les grands . Vous manquez peut-être quelques hypothèses sur ?
p−1+logn2plogn4p=0.001log20.001≈−9.960np