Quelle est l'importance de la matrice chapeau,


10

Quelle est l'importance de la matrice chapeau, H=X(XX)1X , dans l'analyse de régression?

Est-ce uniquement pour un calcul plus facile?


Pourriez-vous également être plus précis?
Steve S

@SteveS En fait, je veux savoir pourquoi nous avons besoin d'une matrice de chapeau?
utilisateur 31466

Demandez-vous pourquoi nous devons avoir un nom / symbole spécial (c.-à-d. "Matrice de chapeau", " H ") pour la matrice ou demandez-vous plus sur l'importance du produit de matrice du côté droit?
Steve S

Réponses:


14

Dans l'étude de la régression linéaire, le point de départ de base est le processus de génération de données y= XB + u où et déterministe. Après avoir minimisé le critère des moindres carrés, on trouve un estimateur pour , c'est-à-dire . Après avoir branché l'estimateur dans la formule initiale, on obtient comme modèle linéaire du processus de génération de données. Maintenant, on peut remplacer l'estimateur par et obtientuN(0,σ2I)XB^BB^=(XX)1Xyy^=XB^B^y^=X(XX)1Xy.

Ainsi, est en fait une matrice de projection. Imaginez que vous prenez toutes les variables dans . Les variables sont des vecteurs et s'étendent sur un espace. Par conséquent, si vous multipliez par , vous projetez vos valeurs observées dans sur l'espace couvert par les variables dans . Il donne une estimation de et c'est la raison pour laquelle il est appelé matrice chapeau et pourquoi il a une telle importance. Après tout, la régression linéaire n'est rien de plus qu'une projection et avec la matrice de projection, nous ne pouvons pas seulement calculer les estimations pourH=X(XX)1XXHyyXyymais aussi pour et peut par exemple vérifier s'il est vraiment normalement distribué.u

J'ai trouvé cette jolie photo sur internet et elle visualise cette projection. Veuillez noter que est utilisé à la place de . De plus, l'image souligne que le vecteur des termes d'erreur est orthogonal à la projection et n'est donc pas corrélé avec les estimations pourβBy

entrez la description de l'image ici


5

La matrice de chapeau est très utile pour plusieurs raisons:

  1. Au lieu d'avoir , nous obtenons que où est la matrice chapeau. Cela nous donne que est une cartographie linéaire des valeurs observées.y^=Zβ^y^=PyPy^
  2. A partir de la matrice chapeau , il est facile de calculer les résidus . Nous voyons que .Pϵ^ϵ^=yy^=yPy=(InP)y

0

Ce n'est rien de plus que de trouver la solution "la plus proche" pour Ax = b où b n'est pas dans l'espace de colonne de A. Nous projetons b sur l'espace de colonne, et résolvons pour Ax (chapeau) = p où p est la projection de b sur espace de colonne.


1
Tout cela peut être fait sans jamais calculer . H
whuber
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.