Considérons un polynôme:
β0+β1x+β2x2+…+βkxk
Observez que le polynôme est non linéaire en mais qu'il est linéaire en . Si nous essayons d'estimer , il s'agit d'une régression linéaire!
Linéarité dans est ce que importe. Lors de l'estimation de l'équation ci-dessus par les moindres carrés, tous les résultats de la régression linéaire sont valables.xββ
yi=β0+β1xi+β2x2i+…+βkxki+ϵi
β=(β0,β1,…,βk)
Soit la somme totale des carrés, la somme expliquée des carrés et la somme résiduelle des carrés. Le coefficient de détermination est défini comme:SSTSSESSR R2
R2=1−SSRSST
Et le résultat de la régression linéaire que donne à son interprétation familière comme la fraction de variance expliquée par le modèle.SST=SSE+SSRR2
SST = SSE + SSR: quand est-ce vrai et quand n'est-ce pas vrai?
Soit la valeur prévisionnelle de et soit le résiduel. De plus, définissons la valeur de prévision dégradée comme .y^iyiei=yi−y^ifi=y^i−y¯
Soit désigne un produit intérieur . Trivialement, nous avons:
Observez que est un produit interne valide. Ensuite nous avons:⟨.,.⟩
⟨f+e,f+e⟩=⟨f,f⟩+2⟨f,e⟩+⟨e,e⟩=⟨f,f⟩+⟨e,e⟩if f and e orthogonal, i.e. their inner product is 0
⟨a,b⟩=∑iaibi
- ⟨f+e,f+e⟩=∑i(yi−y¯)2 est la somme totale de carrés (SST).
- ⟨f,f⟩=∑i(y^i−y¯)2 est la somme expliquée des carrés (SSE).
- ⟨e,e⟩=∑i(yi−y^i)2 est la somme résiduelle des carrés (SSR).
Ainsi, est vrai si la prévision dégradée est orthogonale au résiduel . Cela est vrai dans la régression linéaire des moindres carrés ordinaires chaque fois qu'une constante est incluse dans la régression. Une autre interprétation des moindres carrés ordinaires est que vous projetiez sur la durée linéaire de variables explicatives, d' où le résidu est orthogonale à cet espace par la construction. L'orthogonalité des variables et des résidus de droite n'est généralement pas vraie pour les prévisions obtenues par d'autres moyens.SST=SSE+SSRfe yy^i