Dans CLT, pourquoi ?


10

Soit X1,...,Xn des observations indépendantes d'une distribution ayant la moyenne μ et la variance σ2< , lorsque n , alors

nX¯nμσN(0,1).

Pourquoi cela implique-t-il que

X¯nN(μ,σ2n)?

Peut-être que cela n'a pas été souligné assez clairement ci-dessous, mais la déclaration
nX¯nμσN(0,1)
est mathématiquement significative et vraie tandis que la déclaration
X¯nN(μ,σ2n)
est mathématiquement absurde, donc, comme dit le proverbe, pas même faux .
Le

Réponses:


17

Votre interprétation est légèrement incorrecte. Le théorème central limite (CLT) implique que

X¯napproxN(μ,σ2n).

En effet, le CLT est un résultat asymptotique, et nous ne traitons en pratique que d'échantillons finis. Cependant, lorsque la taille de l'échantillon est suffisamment grande, nous supposons que le résultat CLT est vrai en approximation, et donc

nX¯n-μσenvironN(0,1)nX¯n-μσ.σnenvironσnN(0,1)X¯n-μenvironN(0,σ2n)X¯n-μ+μenvironμ+N(0,σ2n)X¯nenvironN(μ,σ2n).

En effet, pour une variable aléatoire et les constantes , (ceci est utilisé dans la deuxième étape) et , (ceci est utilisé dans l'avant-dernière étape).a , b Var ( a X ) = a 2 Var ( X ) E ( b + X ) = b + E ( X ) Var ( b + X ) = Var ( X )Xune,bVar(uneX)=une2Var(X)E(b+X)=b+E(X)Var(b+X)=Var(X)

Lisez ceci pour plus d'explications sur l'algèbre.


Pourriez-vous préciser quelle «algèbre» utilisez-vous lorsque vous transférez les termes du LHS de au RHS?
mavavilj

J'ai clarifié l'algèbre. La plupart d'entre elles utilisent des propriétés de variance et d'attente.
Greenparker

Pourquoi, par exemple, le deuxième terme de devient-il pas ? N(μ,μ+σ2N(μ,σ2n)N(μ,μ+σ2n)
mavavilj

3
Parce que le . Intuitivement, l'ajout d'un nombre constant à une variable aléatoire ne modifie pas sa variance. Vuner(uneX+b)=une2Vuner(X)
Greenparker

10

La façon la plus simple de voir cela est de regarder la moyenne et la variance de la variable aléatoire .X¯n

Donc, indique que la moyenne est nulle et la variance est une. On a donc pour moyenne:N(0,1)

E[ax+b]=aE[x]+ba,b ˉ X nμ

E[nX¯n-μσ]0
Utilisation de , où sont des constantes, on obtient: E[uneX+b]=uneE[X]+bune,b
X¯nμ

Maintenant, en utilisant , où sont des constantes, nous obtenons ce qui suit pour la variance:Var[uneX+b]=une2Var[X]=une2σX2une,b

Var

Var[nX¯n-μσ]1
Var[X¯n]σ2n

Maintenant, nous savons que la moyenne et la variance de , et la distribution gaussienne (normale) avec ces moyenne et variance estN(μX¯nN(μ,σ2n)

Vous vous demandez peut-être pourquoi passer par toutes ces algèbres? Pourquoi ne pas prouver directement que converge vers ?N(μX¯nN(μ,σ2n)

La raison en est qu'en mathématiques, il est difficile (impossible?) De prouver la convergence vers des choses changeantes, c'est-à-dire que le côté droit de l'opérateur de convergence doit être fixé pour que les mathématiciens utilisent leurs astuces pour prouver des déclarations. L' expression change avec , ce qui est un problème. Ainsi, les mathématiciens transforment les expressions de telle manière que le côté droit est fixe, par exemple est un joli côté droit fixe.N ( μ , σ 2nN(0,1)N(μ,σ2n)nN(0,1)


4

Cela n'implique pas la normalité de , sauf comme approximation. Mais si nous prétendons un instant que est exactement normal normal alors nous avons le résultat que normal lorsque normal . Une façon de voir cela est via la fonction de génération de momentX¯nn(X¯n-μ)/στZ+μ(μ,τ2)Z(0,1)

MτZ+μ(t)=MZ(τt)Mμ(t)=et2τ2/2etμ=et2τ2/2+tμ

qui est le mgf normal(μ,τ2)


Pourquoi la fonction de génération de moment le prouve-t-elle pour la distribution?
mavavilj

1
Ceci résulte de la probabilité. Si deux variables aléatoires ont la même fonction de génération de moment, alors elles sont de distribution égale.
dsaxton
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.