T implique l'indépendance de et ?


9

T implique l'indépendance de et ?Cov(f(X),Y)=0f(.)XY

Je ne suis au courant de la définition suivante de l' indépendance entre et .XY

fx,y(x,y)=fx(x)fy(y)

1
Vous avez besoin de , pas seulementC o v ( f ( X ) , Y ) = 0Cov(f(X),g(Y))=0 for all (measurable) f(),g()Cov(f(X),Y)=0f()
Dilip Sarwate

Réponses:


7

Commençons par l'intuition. La pente de la régression des moindres carrés ordinaires de contre , pour toute fonction , est proportionnelle à la covariance de et . L'hypothèse est que toutes les régressions sont toutes nulles (pas seulement les régressions linéaires). Si vous imaginez représenté par un nuage de points (vraiment, un nuage de densité de probabilité), alors peu importe comment vous le coupez verticalement et réorganisez les tranches (qui effectue le mapping ), la régression reste nulle. Cela implique les attentes conditionnelles deYh(X)hh(X)Y(X,Y)hY(qui sont la fonction de régression) sont tous constants. On pourrait déconner avec les distributions conditionnelles tout en gardant les attentes constantes, ruinant ainsi toute chance d'indépendance. Il faut donc s’attendre à ce que la conclusion ne tienne pas toujours.

Il existe de simples contre-exemples. Considérons un espace échantillon de neuf éléments abstraits et une mesure discrète avec une probabilité déterminée par

Ω={ωi,j1i,j,1}

P(ω0,0)=0; P(ω0,j)=1/5(j=±1); P(ωi,j=1/10) otherwise.

Définissez

X(ωi,j)=j, Y(ωi,j)=i.

Nous pourrions afficher ces probabilités sous forme de tableau

(121101121)

(avec toutes les entrées multipliées par ) indexées dans les deux sens par les valeurs .1/101,0,1

Les probabilités marginales sont et tel que calculé par les sommes de colonne et les sommes de ligne du tableau, respectivement. Puisque ces les variables ne sont pas indépendantes.

fX(1)=fX(1)=3/10;fX(0)=4/10
fY(1)=fY(1)=4/10;fY(0)=2/10,
fX(0)fY(0)=(4/10)(2/10)0=P(ω0,0)=fXY(0,0),

Ceci a été construit pour rendre la distribution conditionnelle de lorsque différente des autres distributions conditionnelles pour . Vous pouvez le voir en comparant la colonne du milieu de la matrice aux autres colonnes. La symétrie dans les coordonnées et dans toutes les probabilités conditionnelles montre immédiatement que toutes les attentes conditionnelles sont nulles, d'où toutes les covariances sont nulles, quelle que soit la façon dont les valeurs associées de peuvent être réaffectées aux colonnes.YX=0X=±1YX

Pour ceux qui pourraient ne pas être convaincus, le contre-exemple peut être démontré par un calcul direct - il n'y a que fonctions à prendre en compte et pour chacune d'elles la covariance est nulle.27

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.