Je mets une autre réponse avec plus de détails.
Dans le modèle de régression linéaire standard (sous forme matricielle):
Oui= Xβ+ ε
l'estimation OLS est la suivante
β^= (XTX)- 1XTOui.
Sa variance est alors
Va r (β^) = (XTX)- 1XTVa r ( Y) X(XTX)- 1.
L'hypothèse habituelle de régression est que
Va r ( Y) =σ2je,
où jeest la matrice d'identité. alors
Va r (β^) =σ2(XTX)- 1.
Maintenant, dans votre cas, vous avez deux modèles:
Ouije=Mjeδje+ϵje
et
Γ = L c + u ,
où
- OuiTje= (Ouije 1, . . . ,Ouii T),
- Mje= [ 1 ,Xje, D ], avec XTi=(Xi1,...,XiT), DT=(D1,...,DT)
- δTi=(αi,βi,γi)
- ϵTi=(ϵi1,...,ϵiT)
- ΓT=(γ1,...,γn)
- L=[1,Z], avec ZT=(Z1,...,Zn)
- cT=(a,b)
- uT=(u1,...,uN).
Notez que vous indiquez le deuxième modèle pour les estimations deγ, ce qui n'est pas habituel, donc je le reformule sous une forme habituelle, pour le "vrai" γ.
Écrivons la matrice de covariance pour les estimations de coefficients OLS c:
Var(c^)=(LTL)−1LTVar(Γ)L(LTL)−1
Le problème est que nous n'observons pas Γ. Nous observons les estimationsΓ^. γ^i fait partie du vecteur
δ^i=δi+(MTiMi)−1MTiϵi.
Suppose que δi sont aléatoires et indépendants avec ϵi et Mi. Cela vaut certainement pourγi donc nous ne perdons rien si nous étendons cela pour d'autres éléments de δi.
Empilons tout δ^i l'un sur l'autre:
δ^T=[δT1,...,δTN]
et explorer la variance de δ^:
Var(δ^)=⎡⎣⎢⎢Var(δ^1)…cov(δ^n,δ^1)cov(δ^1,δ^2)…cov(δ^n,δ2)………cov(δ^1,δ^N)…Var(δ^N)⎤⎦⎥⎥
Suppose que Var(ϵi)=σ2ϵI et cela EϵiϵTj=0. Pouri≠j on a
cov(δ^i,δ^j)=cov(δi,δj)+cov((MTiMi)−1MTiϵi,(MTjMj)−1MTjϵj)=(MTiMi)−1MTiE(ϵiϵTj)Mj(MTjMj)−1=0
Pour les éléments diagonaux, nous avons
Var(δ^i)=Var(δi)+σ2ϵ(MTiMi)−1
Revenons à la variance de c^. Puisque nous substituonsΓ^ au lieu de Γ la variance est la suivante
Var(c^)=(LTL)−1LTVar(Γ^)L(LTL)−1,
Nous pouvons extraire Var(Γ^) de Var(δ^) en sélectionnant les éléments appropriés:
Var(Γ^)=Var(Γ)+diag(g1,...,gn)
où gi est l'élément de σ2ϵ(MTiMi)−1 correspondant à la Var(γ^i). Chaquegi est différent de gj car ils correspondent à différents Xit et Xjt qui ne sont pas supposés égaux.
Nous obtenons donc le résultat surprenant, que, algébriquement même si nous supposons toutes les propriétés nécessaires, la matrice de covariance résultante au moins algébriquement ne sera pas égale à la matrice de covariance OLS habituelle, car pour cela nous avons besoin de cela Var(Γ^) est une matrice d'identité à temps constant, ce qui n'est clairement pas le cas.
Toutes les formules ci-dessus ont été dérivées en supposant que Xij sont constants, ils sont donc conditionnels à Xij. Cela signifie que nous avons calculéVar(Γ^|X). En mettant des hypothèses supplémentaires surXij, Je pense qu'il serait possible de montrer que la variance inconditionnelle est OK.
L'hypothèse d'indépendance placée sur ϵi peut également être relâché à décorrélation.
Il serait également possible d'utiliser une étude de simulation pour voir comment la matrice de covariance diffère si nous utilisons Γ^ au lieu de Γ.