La covariance égale à zéro implique-t-elle l'indépendance des variables aléatoires binaires?


14

Si et sont deux variables aléatoires qui ne peuvent prendre que deux états possibles, comment puis-je montrer que implique l'indépendance? Ce genre de chose va à l'encontre de ce que j'ai appris à l'époque que Cov (X, Y) = 0 n'implique pas l'indépendance ...XYCov(X,Y)=0Cov(X,Y)=0

L'astuce dit de commencer par 1 et 0 comme états possibles et de généraliser à partir de là. Et je peux le faire et montrer E(XY)=E(X)E(Y) , mais cela n'implique pas l'indépendance ???

Je ne sais pas comment faire cela mathématiquement, je suppose.


Ce n'est pas vrai en général comme le suggère le titre de votre question.
Michael R. Chernick

5
La déclaration que vous essayez de prouver est en effet vraie. Si et sont des variables aléatoires de Bernoulli avec respectivement les paramètres et , alors E [ X ] = p 1 et E [ Y ] = p 2 . Donc, cov ( X , Y ) = E [ X Y ] - E [ X ] E [ Y ] est égal à 0 seulement siXYp1p2E[X]=p1E[Y]=p2cov(X,Y)=E[XY]E[X]E[Y]0E[XY]=P{X=1,Y=1} est égal àp1p2=P{X=1}P{Y=1} montrant que{X=1} et{Y=1} sontdes événementsindépendants. C'est un résultat standard que siA etBsont une paire d'événements indépendants, il en va de même pour A,Bc et Ac,B et Ac,Bc événements indépendants, c'est-à-dire que X et Y sont des variables aléatoires indépendantes. Maintenant généralisez.
Dilip Sarwate

Réponses:


23

Pour les variables binaires, leur valeur attendue est égale à la probabilité qu'elles soient égales à un. Donc,

E(XY)=P(XY=1)=P(X=1Y=1)E(X)=P(X=1)E(Y)=P(Y=1)

Si les deux ont une covariance nulle, cela signifie E(XY)=E(X)E(Y) , ce qui signifie

P(X=1Y=1)=P(X=1)P(Y=1)

Il est trivial de voir toutes les autres probabilités conjointes se multiplier également, en utilisant les règles de base sur les événements indépendants (c'est-à-dire si A et B sont indépendants alors leurs compléments sont indépendants, etc.), ce qui signifie que la fonction de masse conjointe factorise, ce qui est la définition deux variables aléatoires étant indépendantes.


2
Concis et élégant. Chic! +1 = D
Marcelo Ventura

9

La corrélation et la covariance mesurent toutes deux l'association linéaire entre deux variables données et il n'a aucune obligation de détecter une autre forme d'association.

Ces deux variables pourraient donc être associées de plusieurs autres manières non linéaires et la covariance (et, par conséquent, la corrélation) ne pourrait pas faire la distinction avec le cas indépendant.

A titre d'exemple très didactique, artificielle et non réaliste, on peut considérer X tel que P(X=x)=1/3 pour x=1,0,1 et également envisager Y=X2 . Notez qu'ils ne sont pas seulement associés, mais l'un est fonction de l'autre. Néanmoins, leur covariance est nulle, car leur association est orthogonale à l'association que la covariance peut détecter.

ÉDITER

En effet, comme indiqué par @whuber, la réponse originale ci-dessus était en fait un commentaire sur la façon dont l'assertion n'est pas universellement vraie si les deux variables n'étaient pas nécessairement dichotomiques. Ma faute!

Alors, faisons le calcul. (L'équivalent local de "Suit up!" De Barney Stinson)

Cas particulier

Si et Y étaient tous deux dichotomiques, alors vous pouvez supposer, sans perte de généralité, que les deux supposent seulement les valeurs 0 et 1 avec des probabilités arbitraires p , q et r données par P ( X = 1 ) = p [ 0 , 1 ] P ( Y = 1 ) = q [ 0 , 1 ] P ( X = 1 , YXY01pqr qui caractérisent complètement la distribution conjointe deXetY. Reprenant l'indice de @ DilipSarwate, notez que ces trois valeurs sont suffisantes pour déterminer la distribution conjointe de(X,Y), puisque P ( X = 0 , Y = 1 )

P(X=1)=p[0,1]P(Y=1)=q[0,1]P(X=1,Y=1)=r[0,1],
XY(X,Y) (Enpassant, bien sûr,rest tenu de respecter à la foisp-r[0,1],q-r[0,1]et1-p-q-r[
P(X=0,Y=1)=P(Y=1)P(X=1,Y=1)=qrP(X=1,Y=0)=P(X=1)P(X=1,Y=1)=prP(X=0,Y=0)=1P(X=0,Y=1)P(X=1,Y=0)P(X=1,Y=1)=1(qr)(pr)r=1pqr.
rpr[0,1]qr[0,1] au-delà de r [ 0 , 1 ] , c'est-à-dire r [ 0 , min ( p , q , 1 - p - q ) ] .)1pqr[0,1]r[0,1]r[0,min(p,q,1pq)]

Notez que peut être égal au produit p q = P ( X = 1 ) P ( Y = 1 ) , ce qui rendrait X et Y indépendants, car P ( X = 0 , Y = 0 )r=P(X=1,Y=1)pq=P(X=1)P(Y=1)XY

P(X=0,Y=0)=1pqpq=(1p)(1q)=P(X=0)P(Y=0)P(X=1,Y=0)=ppq=p(1q)=P(X=1)P(Y=0)P(X=0,Y=1)=qpq=(1p)q=P(X=0)P(Y=1).

Oui, peut être égal à p q , MAIS il peut être différent tant qu'il respecte les limites ci-dessus.rpq

Eh bien, à partir de la distribution conjointe ci-dessus, nous aurions

E(X)=0P(X=0)+1P(X=1)=P(X=1)=pE(Y)=0P(Y=0)+1P(Y=1)=P(Y=1)=qE(XY)=0P(XY=0)+1P(XY=1)=P(XY=1)=P(X=1,Y=1)=rCov(X,Y)=E(XY)E(X)E(Y)=rpq

Now, notice then that X and Y are independent if and only if Cov(X,Y)=0. Indeed, if X and Y are independent, then P(X=1,Y=1)=P(X=1)P(Y=1), which is to say r=pq. Therefore, Cov(X,Y)=rpq=0; and, on the other hand, if Cov(X,Y)=0, then rpq=0, which is to say r=pq. Therefore, X and Y are independent.

General Case

About the without loss of generality clause above, if X and Y were distributed otherwise, let's say, for a<b and c<d,

P(X=b)=pP(Y=d)=qP(X=b,Y=d)=r
then X and Y given by
X=XabaandY=Ycdc
would be distributed just as characterized above, since
X=aX=0,X=bX=1,Y=cY=0andY=dY=1.
So X and Y are independent if and only if X and Y are independent.

Also, we would have

E(X)=E(Xaba)=E(X)abaE(Y)=E(Ycdc)=E(Y)cdcE(XY)=E(XabaYcdc)=E[(Xa)(Yc)](ba)(dc)=E(XYXcaY+ac)(ba)(dc)=E(XY)cE(X)aE(Y)+ac(ba)(dc)Cov(X,Y)=E(XY)E(X)E(Y)=E(XY)cE(X)aE(Y)+ac(ba)(dc)E(X)abaE(Y)cdc=[E(XY)cE(X)aE(Y)+ac][E(X)a][E(Y)c](ba)(dc)=[E(XY)cE(X)aE(Y)+ac][E(X)E(Y)cE(X)aE(Y)+ac](ba)(dc)=E(XY)E(X)E(Y)(ba)(dc)=1(ba)(dc)Cov(X,Y).
So Cov(X,Y)=0 if and only Cov(X,Y)=0.

=D


1
I recycled that answer from this post.
Marcelo Ventura

Verbatim cut and paste from your other post. Love it. +1
gammer

2
The problem with copy-and-paste is that your answer no longer seems to address the question: it is merely a comment on the question. It would be better, then, to post a comment with a link to your other answer.
whuber

2
How is thus an answer to the question asked?
Dilip Sarwate

1
Your edits still don't answer the question, at least not at the level the question is asked. You write "Notice that r  not necessarily equal to the product pq. That exceptional situation corresponds to the case of independence between X and Y." which is a perfectly true statement but only for the cognoscenti because for the hoi polloi, independence requires not just that
(1)P(X=1,Y=1)=P(X=1)P(Y=1)
but also
(2)P(X=u,Y=v)=P(X=u)P(Y=v), u.v{0,1}.
Yes, (1)(2) as the cognoscenti know; for lesser mortals, a proof that (1)(2) is helpful.
Dilip Sarwate

3

IN GENERAL:

The criterion for independence is F(x,y)=FX(x)FY(y). Or

(1)fX,Y(x,y)=fX(x)fY(y)

"If two variables are independent, their covariance is 0. But, having a covariance of 0 does not imply the variables are independent."

This is nicely explained by Macro here, and in the Wikipedia entry for independence.

independencezero cov, yet

zero covindependence.

Great example: XN(0,1), and Y=X2. Covariance is zero (and E(XY)=0, which is the criterion for orthogonality), yet they are dependent. Credit goes to this post.


IN PARTICULAR (OP problem):

These are Bernoulli rv's, X and Y with probability of success Pr(X=1), and Pr(Y=1).

cov(X,Y)=E[XY]E[X]E[Y]=Pr(X=1Y=1)Pr(X=1)Pr(Y=1)Pr(X=1,Y=1)=Pr(X=1)Pr(Y=1).

This is equivalent to the condition for independence in Eq. (1).


():

E[XY]=domain X, YPr(X=xY=y)xy=0 iff x×y0Pr(X=1Y=1).

(): by LOTUS.


As pointed out below, the argument is incomplete without what Dilip Sarwate had pointed out in his comments shortly after the OP appeared. After searching around, I found this proof of the missing part here:

If events A and B are independent, then events Ac and B are independent, and events Ac and Bc are also independent.

Proof By definition,

A and B are independent P(AB)=P(A)P(B).

But B=(AB)+(AcB), so P(B)=P(AB)+P(AcB), which yields:

P(AcB)=P(B)P(AB)=P(B)P(A)P(B)=P(B)[1P(A)]=P(B)P(Ac).

Repeat the argument for the events Ac and Bc, this time starting from the statement that Ac and B are independent and taking the complement of B.

Similarly. A and Bc are independent events.

So, we have shown already that

Pr(X=1,Y=1)=Pr(X=1)Pr(Y=1)
and the above shows that this implies that
Pr(X=i,Y=j)=Pr(X=i)Pr(Y=j),  i,j{0,1}
that is, the joint pmf factors into the product of marginal pmfs everywhere, not just at (1,1). Hence, uncorrelated Bernoulli random variables X and Y are also independent random variables.

2
Actually that's not an equivalent condition to Eq (1). All you showed was that fX,Y(1,1)=fX(1)fY(1)
gammer

Please consider replacing that image with your own equations, preferably ones that don't use overbars to denote complements. The overbars in the image are very hard to see.
Dilip Sarwate

@DilipSarwate No problem. Is it better, now?
Antoni Parellada

1
Thanks. Also, note that strictly speaking, you also need to show that A and Bc are independent events since the factorization of the joint pdf into the product of the marginal pmts must hold at all four points. Perhaps adding the sentence "Similarly. A and Bc are independent events" right after the proof that Ac and B are independent events will work.
Dilip Sarwate

@DilipSarwate Thank you very much for your help getting it right. The proof as it was before all the editing seemed self-explanatory, because of all the inherent symmetry, but it clearly couldn't be taken for granted. I am very appreciative of your assistance.
Antoni Parellada
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.