Quelle est la différence entre les moindres carrés et la régression linéaire? Est-ce la même chose?
Quelle est la différence entre les moindres carrés et la régression linéaire? Est-ce la même chose?
Réponses:
La régression linéaire suppose une relation linéaire entre la variable indépendante et la variable dépendante. Il ne vous dit pas comment le modèle est monté. L'ajustement le moins carré est simplement l'une des possibilités. D'autres méthodes pour former un modèle linéaire sont dans le commentaire.
Les moindres carrés non linéaires sont courants ( https://en.wikipedia.org/wiki/Non-linear_least_squares ). Par exemple, l'algorithme Levenberg – Marquardt populaire résout quelque chose comme:
Il s'agit d'une optimisation par moindres carrés mais le modèle n'est pas linéaire.
Ce n'est pas la même chose .
En plus de la bonne réponse de @Student T, je tiens à souligner que les moindres carrés sont une fonction de perte potentielle pour un problème d'optimisation, tandis que la régression linéaire est un problème d'optimisation.
Étant donné un certain ensemble de données, une régression linéaire est utilisée pour trouver la meilleure fonction linéaire possible, ce qui explique le lien entre les variables.
Dans ce cas, le "meilleur" possible est déterminé par une fonction de perte, en comparant les valeurs prédites d'une fonction linéaire avec les valeurs réelles dans l'ensemble de données. Les moindres carrés sont une fonction de perte possible.
L'article wikipedia des moindres carrés montre également des images sur le côté droit qui montrent l'utilisation des moindres carrés pour d'autres problèmes que la régression linéaire tels que:
Le gif suivant de l'article de wikipedia montre plusieurs fonctions polynomiales différentes adaptées à un ensemble de données utilisant les moindres carrés. Un seul d'entre eux est linéaire (polynôme de 1). Ceci est tiré de l' article de Wikipédia allemand sur le sujet.