La corrélation et la covariance mesurent toutes deux l'association linéaire entre deux variables données et il n'a aucune obligation de détecter une autre forme d'association.
Ces deux variables pourraient donc être associées de plusieurs autres manières non linéaires et la covariance (et, par conséquent, la corrélation) ne pourrait pas faire la distinction avec le cas indépendant.
A titre d'exemple très didactique, artificielle et non réaliste, on peut considérer X tel que P(X=x)=1/3 pour x=−1,0,1 et également envisager Y=X2 . Notez qu'ils ne sont pas seulement associés, mais l'un est fonction de l'autre. Néanmoins, leur covariance est nulle, car leur association est orthogonale à l'association que la covariance peut détecter.
ÉDITER
En effet, comme indiqué par @whuber, la réponse originale ci-dessus était en fait un commentaire sur la façon dont l'assertion n'est pas universellement vraie si les deux variables n'étaient pas nécessairement dichotomiques. Ma faute!
Alors, faisons le calcul. (L'équivalent local de "Suit up!" De Barney Stinson)
Cas particulier
Si et Y étaient tous deux dichotomiques, alors vous pouvez supposer, sans perte de généralité, que les deux supposent seulement les valeurs 0 et 1 avec des probabilités arbitraires p , q et r données par
P ( X = 1 ) = p ∈ [ 0 , 1 ] P ( Y = 1 ) = q ∈ [ 0 , 1 ] P ( X = 1 , YXY01pqr
qui caractérisent complètement la distribution conjointe deXetY. Reprenant l'indice de @ DilipSarwate, notez que ces trois valeurs sont suffisantes pour déterminer la distribution conjointe de(X,Y), puisque
P ( X = 0 , Y = 1 )
P(X=1)=p∈[0,1]P(Y=1)=q∈[0,1]P(X=1,Y=1)=r∈[0,1],
XY(X,Y)
(Enpassant, bien sûr,
rest tenu de respecter à la fois
p-r∈[0,1],
q-r∈[0,1]et
1-p-q-r∈[P(X=0,Y=1)P(X=1,Y=0)P(X=0,Y=0)=P(Y=1)−P(X=1,Y=1)=q−r=P(X=1)−P(X=1,Y=1)=p−r=1−P(X=0,Y=1)−P(X=1,Y=0)−P(X=1,Y=1)=1−(q−r)−(p−r)−r=1−p−q−r.
rp−r∈[0,1]q−r∈[0,1] au-delà de
r ∈ [ 0 , 1 ] , c'est-à-dire
r ∈ [ 0 , min ( p , q , 1 - p - q ) ] .)
1−p−q−r∈[0,1]r∈[0,1]r∈[0,min(p,q,1−p−q)]
Notez que peut être égal au produit p ⋅ q = P ( X = 1 ) P ( Y = 1 ) , ce qui rendrait X et Y indépendants, car
P ( X = 0 , Y = 0 )r=P(X=1,Y=1)p⋅q=P(X=1)P(Y=1)XY
P(X=0,Y=0)P(X=1,Y=0)P(X=0,Y=1)=1−p−q−pq=(1−p)(1−q)=P(X=0)P(Y=0)=p−pq=p(1−q)=P(X=1)P(Y=0)=q−pq=(1−p)q=P(X=0)P(Y=1).
Oui, peut être égal à p q , MAIS il peut être différent tant qu'il respecte les limites ci-dessus.rpq
Eh bien, à partir de la distribution conjointe ci-dessus, nous aurions
E(X)E(Y)E(XY)Cov(X,Y)=0⋅P(X=0)+1⋅P(X=1)=P(X=1)=p=0⋅P(Y=0)+1⋅P(Y=1)=P(Y=1)=q=0⋅P(XY=0)+1⋅P(XY=1)=P(XY=1)=P(X=1,Y=1)=r=E(XY)−E(X)E(Y)=r−pq
Now, notice then that X and Y are independent if and only if Cov(X,Y)=0. Indeed, if X and Y are independent, then P(X=1,Y=1)=P(X=1)P(Y=1), which is to say r=pq. Therefore, Cov(X,Y)=r−pq=0; and, on the other hand, if Cov(X,Y)=0, then r−pq=0, which is to say r=pq. Therefore, X and Y are independent.
General Case
About the without loss of generality clause above, if X and Y were distributed otherwise, let's say, for a<b and c<d,
P(X=b)=pP(Y=d)=qP(X=b,Y=d)=r
then
X′ and
Y′ given by
X′=X−ab−aandY′=Y−cd−c
would be distributed just as characterized above, since
X=a⇔X′=0,X=b⇔X′=1,Y=c⇔Y′=0andY=d⇔Y′=1.
So
X and
Y are independent
if and only if X′ and
Y′ are independent.
Also, we would have
E(X′)E(Y′)E(X′Y′)Cov(X′,Y′)=E(X−ab−a)=E(X)−ab−a=E(Y−cd−c)=E(Y)−cd−c=E(X−ab−aY−cd−c)=E[(X−a)(Y−c)](b−a)(d−c)=E(XY−Xc−aY+ac)(b−a)(d−c)=E(XY)−cE(X)−aE(Y)+ac(b−a)(d−c)=E(X′Y′)−E(X′)E(Y′)=E(XY)−cE(X)−aE(Y)+ac(b−a)(d−c)−E(X)−ab−aE(Y)−cd−c=[E(XY)−cE(X)−aE(Y)+ac]−[E(X)−a][E(Y)−c](b−a)(d−c)=[E(XY)−cE(X)−aE(Y)+ac]−[E(X)E(Y)−cE(X)−aE(Y)+ac](b−a)(d−c)=E(XY)−E(X)E(Y)(b−a)(d−c)=1(b−a)(d−c)Cov(X,Y).
So
Cov(X,Y)=0 if and only Cov(X′,Y′)=0.
=D