Lorsque (c'est-à-dire que provient d'un modèle de régression linéaire), \ varepsilon \ sim \ mathcal {N} (0, \ sigma ^ 2 I) \ hspace {1em} \ Rightarrow \ hspace {1em} \ hat {e} = (I - H) Y \ sim \ mathcal {N} (0, (I - H) \ sigma ^ 2_ {}) et dans ce cas, les résidus \ hat {e} _1, \ ldots, \ hat { e} _n sont corrélés et non indépendants. Mais lorsque nous effectuons des diagnostics de régression et que nous voulons tester l'hypothèse \ varepsilon \ sim \ mathcal {N} (0, \ sigma ^ 2 I) , chaque manuel suggère d'utiliser des tracés Q – Q et des tests statistiques sur les résidus \ hat {e} qui ont été conçus pour tester si \ hat {e} \ sim \ mathcal {N} (0, \ sigma ^ 2 I) pour certains \ sigma ^ 2 \ in \ mathbb {R} .Y ε ∼ N ( 0 , σ 2 I )E 1 , ... , e n ε ~ N ( 0 , σ 2 I ) e e
Comment se fait-il que pour ces tests, les résidus soient corrélés et non indépendants? Il est souvent suggéré d'utiliser des résidus standardisés:
Pour reformuler la question: les résidus de régression OLS sont corrélés. Je comprends que dans la pratique, ces corrélations sont si petites (la plupart du temps? Toujours?), Elles peuvent être ignorées lors du test pour savoir si les résidus proviennent d'une distribution normale. Ma question est, pourquoi?