Je trouve ce sujet assez intéressant et les réponses actuelles sont malheureusement incomplètes ou partiellement trompeuses - malgré la pertinence et la grande popularité de cette question.
Par définition du cadre classique OLS il devrait y avoir aucune relation entre et uŷ u^ , étant donné que les résidus obtenus sont par construction décorrélé lors du calcul de l'estimateur OLS. La propriété minimisant la variance sous homoscédasticité garantit que l'erreur résiduelle est répartie de manière aléatoire autour des valeurs ajustées. Cela peut être formellement démontré par:ŷ
= P σ 2 - P σ 2 = 0
Cov(ŷ ,û |X)=Cov(Py,My|X)=Cov(Py,(I−P)y|X)=PCov(y,y)(I−P)′
=Pσ2−Pσ2=0
Où et P sont des matrices idempotent définies comme étant: P = X ( X ' X ) X ' et M = I - P .MPP=X(X′X)X′M=I−P
Ce résultat est basé sur une exogénéité et une homoskédasticité strictes, et tient pratiquement dans de grands échantillons. L'intuition pour leur non corrélation est la suivante: Les valeurs ajustées à X sont centrées autour de u , qui sont considérés comme indépendamment et identiquement distribués. Cependant, tout écart par rapport à l'hypothèse d'exogénéité stricte et homoscédasticité pourrait provoquer des variables explicatives pour être endogènes et stimuler une corrélation latente entre u et y . ŷ Xû û ŷ
Maintenant , la corrélation entre les résidus l ' « original » y est une histoire complètement différente:û y
Cov(y,û |X)=Cov(yMy|X)=Cov(y,(1−P)y)=Cov(y,y)(1−P)=σ2M
Certains vérifier dans la théorie et nous savons que cette matrice de covariance est identique à la matrice de covariance du résidu u lui - même ( la preuve omise). On a:u^
Var(û )=σ2M=Cov(y,û |X)
Si nous voulons calculer la covariance entre (scalaire) et u tel que demandé par l'OP, on obtient:yu^
⟹Covscalar(y,û |X)=Var(û |X)=(∑u2i)/N
(= en additionnant les entrées diagonales de la matrice de covariance et en divisant par N)
La formule ci-dessus indique un point intéressant. Si nous testons la relation en régressant y sur les résidus u (+ constante), le coefficient de pente β u , y = 1 , qui peut être facilement déduite lorsque l' on divise l'expression ci - dessus par le Var ( u | X ) .u^βu^,y=1Var(û |X)
En revanche, la corrélation est la covariance standardisée par les écarts-types respectifs. Maintenant, la matrice de variance des résidus est , tandis que la variance de y est σ 2 I . La corrélation Corr ( y , u ) devient donc:σ2Myσ2ICorr(y,û )
Corr(y,û )=Var(û )Var(u^)Var(y)−−−−−−−−−−−√=Var(û )Var(y)−−−−−−√=Var(û )σ2−−−−−−√
C'est le résultat principal qui devrait tenir dans une régression linéaire. L'intuition est que le exprime l'erreur entre la vraie variance du terme d'erreur et une approximation de la variance surbaserésidus. Notez que la variance de y est égale à la variance de y plus la variance des résidus u . Il peut donc être réécrit de manière plus intuitive:Corr(y,û )yy^u^
Corr(y,û )=11+Var(y)^Var(û )−−−−−−−−√
Les deux forces sont ici au travail. Si nous avons un grand ajustement de la ligne de régression, la corrélation devrait être faible en raison du . D'autre part, Var ( y ) est un peu fudge à l' estime qu'il est inconditionnel et une ligne dans l' espace des paramètres. La comparaison des variances inconditionnelles et conditionnelles au sein d'un ratio peut ne pas être un indicateur approprié après tout. C'est peut-être pourquoi c'est rarement fait dans la pratique.Var(û )≈0Var(y^)
Une tentative de conclure à la question: La corrélation entre et u est positif et se rapporte au rapport de la variance des résidus et de la variance du terme d'erreur vraie, approximé par la variance inconditionnelle en y . Par conséquent, c'est un peu un indicateur trompeur.yû y
En dépit de cet exercice peut nous donner une certaine intuition sur le fonctionnement et les hypothèses théoriques inhérentes à une régression OLS, nous évaluons rarement la corrélation entre et u . Il existe certainement des tests plus établis pour vérifier les propriétés du vrai terme d'erreur. En second lieu , garder à l' esprit que les résidus ne sont pas le terme d'erreur, et les tests sur les résidus u que les prévisions de maquillage des caractéristiques sur le vrai terme d'erreur u sont limitées et leur besoin de validité à manipuler avec le plus grand soin.yû û u
Par exemple, je voudrais souligner ici une déclaration faite par une affiche précédente. Il est dit que,
"Si vos résidus sont corrélés avec vos variables indépendantes, alors votre modèle est hétéroscédastique ..."
Je pense que ce n'est peut-être pas tout à fait valable dans ce contexte. Croyez - le ou non, mais les résidus OLS par construction faits pour être décorrélé la variable indépendante x k . Pour voir cela, considérez:û xk
= X ′ y - X ′ X ( X ′
X′ui=X′My=X′(I−P)y=X′y−X′Py
=X′y−X′X(X′X)X′y=X′y−X′y=0
⟹X′ui=0⟹Cov(X′,ui|X)=0⟹Cov(xki,ui|xki)=0
Cependant, vous avez peut-être entendu des affirmations selon lesquelles une variable explicative est corrélée avec le terme d'erreur . Notez que ces affirmations sont basées sur des hypothèses concernant l'ensemble de la population avec un véritable modèle de régression sous-jacent, que nous n'observons pas de première main. Par conséquent, vérifier la corrélation entreyû XX, comme c'est souvent le cas avec les estimateurs FGSL. Ceci est différent de l'évaluation de la simple corrélation. J'espère que cela aidera à clarifier les choses.