Quelle est l'intuition derrière l'indépendance de et , ?


18

J'espérais que quelqu'un pourrait proposer un argument expliquant pourquoi les variables aléatoires et , ayant la distribution normale standard, sont statistiquement indépendantes. La preuve de ce fait découle facilement de la technique MGF, mais je la trouve extrêmement contre-intuitive.Y 2 = X 1 + X 2 X iY1=X2X1Y2=X1+X2Xi

J'apprécierais donc l'intuition ici, le cas échéant.

Merci d'avance.

EDIT : Les indices n'indiquent pas les statistiques de commande mais les observations IID de la distribution normale standard.


Qu'est-ce que la "technique MGF"?
amibe dit Réintégrer Monica

@amoeba C'est l'utilisation de fonctions génératrices de moments pour déterminer la distribution d'une variable aléatoire. Dans mon cas, je me réfère au théorème que et sont indépendants si et seulement si , étant égal à . Choisissez n'importe quelle autre technique et je suis convaincu que vous arriverez au même résultat. Y 2 M ( t 1 , t 2 ) = M ( t 1 , 0 ) × M ( 0 , t 2 ) M ( t 1 , t 2 ) E ( e t 1 Y 1 + t 2 Y 2 )Y1Y2M(t1,t2)=M(t1,0)×M(0,t2)M(t1,t2)E(et1Y1+t2Y2)
JohnK

1
Vous pouvez trouver des informations dans le fil de discussion étroitement lié à stats.stackexchange.com/questions/71260 .
whuber

Vous pouvez obtenir une certaine intuition en considérant ce qui arrive à chacun d' entre eux si vous ajoutez une constante, par exemple , à chaque . Et que se passe-t-il si vous multipliez chaque par une constante, par exempleX X σμXXσ
rvl

Réponses:


22

Il s'agit de données distribuées normales standard: nuage de points dans le premier système de coordonnées notez que la distribution est symétrique circulaire.

Lorsque vous passez à et , vous faites pivoter et mettre à l'échelle efficacement l'axe, comme ceci: ce nouveau système de coordonnées a la même origine que l'original et l'axe est orthogonal. En raison de la symétrie circulaire, les variables sont toujours indépendantes dans le nouveau système de coordonnées.Y 2 = X 1 + X 2Y1=X2X1Y2=X1+X2nuage de points avec système de coordonnées pivoté


4
Le résultat s'applique même lorsque et sont corrélés avec les marges normales d'unité. Votre explication ne couvre donc qu'un sous-cas du résultat d'origine. Cependant, l'idée de base ici est saine. X 2X1X2
Glen_b -Reinstate Monica

1
@Glen_b, oui, vous avez raison. Je voulais me concentrer sur un cas simple, car JohnK semble déjà savoir comment prouver le cas général, mais il manque la compréhension intuitive.
dobiwan

7

Le résultat fonctionne pour conjointement normal (ie avec corrélation, ), avec commun .- 1 < ρ < 1 σ(X1,X2)1<ρ<1σ

Si vous connaissez quelques résultats de base, c'est à peu près tout ce dont vous avez besoin:

entrez la description de l'image ici

L'approche de dobiwan est essentiellement bonne - c'est juste que le résultat est plus général que le cas traité ici.


3
+1 pour dépouiller le résultat souhaité à l'essentiel. J'ajouterai que pour le cas plus général de normalité conjointe à variances inégales, une rotation des axes de au lieu de implicite dans produit un aléatoire normal indépendant variables. ±π
θ=12arctan(2ρσ1σ2σ12σ22)
(X1,X2)(X1+X2.X1-X2)±π4(X1,X2)(X1+X2.X1X2)
Dilip Sarwate

6

Le résultat que vous prétendez être vrai n'est pas vrai en général, pas même dans le cas où tout ce que l'on sait est que et sont des variables aléatoires normales avec une variance identique, mais le résultat est valable pour l' interprétation habituelle de la condition que vous avez indiquée. plus tard:X 2X1X2

Les indices n'indiquent pas des statistiques d'ordre mais des observations de la distribution normale standard.

L'interprétation habituelle des derniers mots de cette déclaration est, bien sûr, que et sont des variables aléatoires indépendantes (normales), et donc des variables aléatoires conjointement normales.X 2X1X2

Pour les variables aléatoires conjointement normales avec une variance identique, il est vrai que et sont des variables aléatoires indépendantes (normales) (avec, en général, des variances inégales), et l'explication intuitive de cela est mieux donnée dans la réponse de Glen_b. Pour votre cas particulier où et sont également indépendants, la réponse de dobiwan, que vous avez acceptée, est la plus simple, et révèle en effet que toute rotation des axes, pas seulement par le implicite dans la transformation , produira des variables aléatoires indépendantes.X 1 - X 2 X 1 X 2 ± πX1+X2X1X2X1X2 (X1,X2)(X1+X2,X1-X2)±π4(X1,X2)(X1+X2,X1X2)


Que peut-on dire en général? Dans tout ce que je dis ci-dessous, gardez à l'esprit que et ont la même variance , quelles que soient les autres propriétés qui pourraient leur être attribuées.YXY

Si et sont des variables aléatoires (note: pas nécessairement normale) avec la variance identique, alors et sont décorrélés des variables aléatoires (qui est, ils ont zéro covariance). En effet, la fonction de covariance est bilinéaire : Ici, nous avons utilisé le fait que n'est que la varianceY X + Y X - Y cov ( X + Y , X - Y )XYX+YXY cov(X,X)var(X)XYcov(Y,X)=cov(X,Y)XYXY

cov(X+Y,XY)=cov(X,X)cov(X,Y)+cov(Y,X)cov(Y,Y)=var(X)cov(X,Y)+cov(X,Y)var(Y)=0.
cov(X,X)var(X) de (et de même pour ) et, bien sûr, . Notez que ce résultat est valable lorsque et sont des variables aléatoires normales (marginalement) mais pas nécessairement des variables aléatoires conjointement normales. (Si vous n'êtes pas familier avec cette notion de normalité marginale qui n'est pas la même que la normalité conjointe, voyez cette excellente réponse du cardinal). Dans le cas particulier où et sont des variables aléatoires normales conjointement normales (mais pas nécessairement indépendantes), X + Y etXYcov(Y,X)=cov(X,Y)XYXYX+Y conjointement normaux, et puisque leur covariance est 0 , X + Y et X - Y sont des variables aléatoires indépendantes.XY0X+YXY

2

X1,X2Y1Y20Y1,Y2

La moyenne conditionnelle

X1+X2=yX1=x,X2=yxX1=yx,X2=x

X1X2X1+X2X1Y2=yX2Y2=y

E(Y1Y2=y)=E(X1X2X1+X2=y)=E(X1X1+X2=y)E(X2X1+X2=y)=0.

(Mise en garde: je n'ai pas envisagé la possibilité que la moyenne conditionnelle n'existe pas.)

La moyenne conditionnelle constante implique une corrélation / covariance nulle

Y1Y2Y2Y1Y1Y2

Cov(Y1,Y2)=E[(Y1E(Y1))(Y2E(Y2))]
Y2
=E[E[(Y1E(Y1))(Y2E(Y2))Y2]]=E[(Y2E(Y2))E[Y1E(Y1)Y2]].
Y2
=E[(Y2E(Y2))E[Y1E(Y1)]]
0
=E[(Y2E(Y2))×0]=0.

Indépendance

X1,X2Y1Y2X1,X2Y1,Y2

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.