Le matrice est la matrice "annulateur" ou "machine résiduelle" associé à la matrice X . Il est appelé "annihilateur" car M X = 0 (pour sa propre matrice X bien sûr). Est -ce que l' on appelle "faiseur résiduel" parce que M y = e , dans la régression y = X β + e . M = I - X ( X′X )- 1X′XM X =0XM y = e^y = X β+ e
C'est une matrice symétrique et idempotente. Il est utilisé dans la démonstration du théorème de Gauss-Markov.
En outre, il est utilisé dans le théorème de Frisch – Waugh – Lovell , à partir duquel on peut obtenir des résultats pour la "régression partitionnée", qui dit que dans le modèle (sous forme matricielle)
y = X1β1+ X2β2+ u
nous avons ça
β^1= ( X′1M2X1)- 1( X′1M2) y
Puisque est idempotent, nous pouvons réécrire ce qui précède enM2
β^1= ( X′1M2M2X1)- 1( X′1M2M2) y
et puisque est également symétrique, nous avonsM2
β^1= ( [ M2X1]′[ M2X1] )- 1( [ M2X1]′[ M2y ]
Mais c'est l'estimateur des moindres carrés du modèle
[ M2y ]=[ M2X1] β1+ M2u
et aussi sont les résidus de régression y uniquement sur la matrice X 2 . M2yyX2
En d' autres termes: 1) Si on régresse sur la matrice X 2 uniquement, puis régressent les résidus de cette estimation sur la matrice M 2 X 1 uniquement, les β 1 estimations que nous obtiendrons sera mathématiquement égale aux estimations que nous sera obtenu si nous régressons y sur X 1 et X 2 ensemble en même temps, comme une régression multiple habituelle. yX2M2X1β^1yX1X2
Maintenant, supposons que n'est pas une matrice mais juste un régresseur, disons xX1 . Alors M 2 x 1 est le résidu de régression de la variable X 1 sur la matrice de régresseur X 2 . Et cela donne l'intuition ici: β 1 nous donne l'effet que « la partie de X 1 qui est expliquée par X 2 » a sur « la partie de Y qui reste inexpliquée par X 2 ».X1M2X1X1X2β^1X1X2OuiX2
C'est une partie emblématique de l'algèbre classique des moindres carrés.