Comment dériver l'erreur standard du coefficient de régression linéaire


20

Pour ce modèle univarié de régression linéaire

yje=β0+β1Xje+ϵje
données ensemble donné ={(X1,y1),...,(Xn,yn)} , les estimations des coefficients sont β 1 = Σ i x i y i - n ˉ x ˉ y β 0= ˉ y - β 1 ˉ x Voici ma question, selon le livre etWikipedia, l'erreur type deest Comment et pourquoi?
β^1=jeXjeyje-nX¯y¯nX¯2-jeXje2
β^0=y¯-β^1X¯
β^1
sβ^1=jeϵ^je2(n-2)je(Xje-X¯)2


@ocram, merci, mais je ne suis pas tout à fait capable de gérer les trucs matriciels, je vais essayer.
avocat

1
(n-2)

Réponses:


15

3ème commentaire ci-dessus: j'ai déjà compris comment ça se passe. Mais encore une question: dans mon post, l'erreur standard a (n − 2), où selon votre réponse, ce n'est pas le cas, pourquoi?


se^(b^)=nσ^2nXje2-(Xje)2.
nje(Xje-X¯)2
se^(b^)=σ^2je(Xje-X¯)2

σ^2=1n-2jeϵ^je2
se^(b^)n-2

1
σ^2=1n-2jeϵ^je2

2

une autre façon de penser le n-2 df est que c'est parce que nous utilisons 2 moyennes pour estimer le coefficient de pente (la moyenne de Y et X)

df de Wikipedia: "... En général, les degrés de liberté d'une estimation d'un paramètre sont égaux au nombre de scores indépendants qui entrent dans l'estimation moins le nombre de paramètres utilisés comme étapes intermédiaires dans l'estimation du paramètre lui-même . "


2
Ce n'est pas vraiment une dérivation en tant que telle, bien que ce soit une intuition. Pour certaines subtilités liées à cela, cependant, voir Comment comprendre les degrés de liberté?
Silverfish
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.