Pour comprendre pourquoi nous utilisons le t-distribution, vous devez savoir quelle est la répartition sous - jacente de β et de la somme des carrés résiduelle ( R S S ) que ces deux ensemble de vente vous donnera la distribution t.βˆRSS
La partie plus facile est la distribution de β qui est une distribution normale - voir cette note que β = ( X T X ) - 1 X T Y de sorte qu'il est une fonction linéaire de Y où Y ~ N ( X β , σ 2 I n ) . En conséquence , il est également normalement distribué, β ~ N ( β , σ 2 ( X T X ) -βˆβˆ(XTX)−1XTYYY∼N(Xβ,σ2In)- laissezmoi savoir si vousbesoinaide dériver la distribution de β .βˆ∼N(β,σ2(XTX)−1)βˆ
De plus, , où n est le nombre d'observations et p est le nombre de paramètres utilisés dans votre régression. La preuve de cela est un peu plus compliquée, mais aussi simple à dériver (voir la preuve ici Pourquoi RSS est-il distribué chi carré np? ).RSS∼σ2χ2n−pnp
Jusqu'à ce point , je l' ai considéré comme tout dans la matrice / vecteur notation, mais nous allons utiliser pour la simplicité β i et utiliser sa distribution normale , ce qui nous
donnera: β i - β iβˆi
βˆi−βiσ(XTX)−1ii−−−−−−−−√∼N(0,1)
De plus, à partir de la distribution chi carré de nous avons que:
( n - p ) s 2RSS
(n−p)s2σ2∼χ2n−p
Il s'agissait simplement d'un réarrangement de la première expression chi carré et est indépendant du . De plus, nous définissons s 2 = R S SN(0,1) , qui est un estimateur sans biais pourσ2. Par la définition de la définitiontn-pque la division d'une distribution normale par un chi carré indépendant (sur ses degrés de liberté) vous donne une distribution t (pour la preuve, voir:Une normale divisée par le√s2=RSSn−pσ2tn−p vous donne une distribution en t - preuveχ2(s)/s−−−−−−√) vous obtenez que:
βˆi−βis(XTX)−1ii−−−−−−−−√∼tn−p
Où .s(XTX)−1ii−−−−−−−−√=SE(βˆi)
Faites-moi savoir si cela a du sens.