Soit le nombre d'observations et le nombre de variables explicatives.KNK
NX est en fait une matriceCe n'est que lorsque nous regardons une seule observation que nous désignons généralement chaque observation par - un vecteur de lignes de variables explicatives d'un scalaire d'observation particulier multiplié par le vecteur de colonne . De plus, est un vecteur de colonne , contenant toutes les observations .N×KxTiK×1βYN×1Yn
Maintenant, un hyperplan deux dimensions s'étendrait entre le vecteur et un (!) Vecteur colonne de . Rappelez - vous que est un la matrice, de sorte que chaque variable explicative est représenté par exactement un vecteur de colonne de la matrice . Si nous avons une seule variable explicative, aucune interception et , tous les points de données sont situés le long du plan 2 dimensions enjambé par et .YXXN×KXYYX
Pour une régression multiple, combien de dimensions au total l'hyperplan entre et la matrice a-t-il? Réponse: Puisque nous avons vecteurs de colonnes de variables explicatives dans , nous devons avoir un hyperplan dimensionnel .YXKXK+1
Habituellement, dans un cadre matriciel, la régression nécessite une interception constante pour être sans biais pour une analyse raisonnable du coefficient de pente. Pour tenir compte de cette astuce, nous forçons une colonne de la matrice à être uniquement constituée de " s". Dans ce cas, l'estimateur est seul multiplié par une constante pour chaque observation au lieu d'une variable explicative aléatoire. Le coefficient représente donc la valeur attendue de étant donné que est maintenu fixe avec la valeur 1 et toutes les autres variables sont nulles. Par conséquent, l' hyperplan est réduit d'une dimension en un sous-espace , etX1β1β1Yx1iK+1Kβ1 correspond à l '"interception" de ce plan dimensionnel.K
Dans les paramètres matriciels, il est toujours conseillé de regarder le cas simple de deux dimensions, pour voir si nous pouvons trouver une intuition pour nos résultats. Ici, la façon la plus simple est de penser à la régression simple avec deux variables explicatives:
ou alternativement exprimée en algèbre matricielle: où est un matrice.
yi=β1x1i+β2x2i+ui
Y=Xβ+uXN×2
<Y,X> s'étend sur un hyperplan tridimensionnel.
Maintenant, si nous tous les à tous les , nous obtenons:
qui est notre régression simple habituelle qui peut être représentée dans un tracé bidimensionnelNotez que est maintenant réduit à une ligne à deux dimensions - un sous-ensemble de l'hyperplan à l'origine en 3 dimensions. Le coefficient correspond à l'ordonnée à l'origine de la coupe de ligne à .x11
yi=β1i+β2x2i+ui
X, Y<Y,X>β1x2i=0
Il peut en outre être montré qu'il passe également par lorsque la constante est incluse . Si nous omettons la constante, l'hyperplan de régression passe toujours trivialement par - sans aucun doute. Cela se généralise à plusieurs dimensions, comme on le verra plus tard lors de la dérivation de :
Puisque a un rang complet par définition, , et donc la régression passe par l'origine si nous à l'origine.<0,β1><0,0>βX y - X β = 0
(X′X)β=X′y⟹(X′X)β−X′y=0⟹X′(y−Xβ)=0.
Xy−Xβ=0
( Edit: Je viens de réaliser que pour votre deuxième question, c'est exactement le contraire de vous avez écrit l'inclusion ou l'exclusion de la constante. Cependant, j'ai déjà conçu la solution ici et je me corrige si je me trompe sur celle-ci. )
Je sais que la représentation matricielle d'une régression peut être assez déroutante au début, mais finalement elle simplifie beaucoup lors de la dérivation d'une algèbre plus complexe. J'espère que ça aide un peu.