Il est assez difficile de comparer directement kNN et la régression linéaire car ce sont des choses très différentes, cependant, je pense que le point clé ici est la différence entre "modéliser " et "avoir des hypothèses sur ".f ( x )f(x)f(x)
Lors de la régression linéaire, on modélise spécifiquement le , souvent quelque chose parmi les lignes de où est un terme de bruit gaussien. Vous pouvez déterminer que le modèle de probabilité maximale est équivalent au modèle d'erreur de somme des carrés minimale.f ( x ) = w x + ϵ ϵf(x)f(x)=wx+ϵϵ
KNN, d'autre part, comme le suggère votre deuxième point, suppose que vous pouvez approximer cette fonction par une fonction localement constante - une certaine mesure de distance entre les -ses, sans modéliser spécifiquement la distribution entière.x
En d'autres termes, la régression linéaire aura souvent une bonne idée de la valeur de pour certains invisibles à partir de la seule valeur de , tandis que kNN aurait besoin d'autres informations (c'est-à-dire les k voisins), pour faire des prédictions sur , car la valeur de , et juste la valeur elle-même, ne donnera aucune information, car il n'y a pas de modèle pour .x x f ( x ) x f ( x )f(x)xxf(x)xf(x)
EDIT: réitérer ceci ci-dessous pour ré-exprimer cela plus clairement (voir commentaires)
Il est clair que la régression linéaire et les méthodes du plus proche voisin visent à prédire la valeur de pour un nouveau . Il existe maintenant deux approches. La régression linéaire se poursuit en supposant que les données tombent sur une ligne droite (plus moins un peu de bruit), et donc la valeur de y est égale à la valeur de multipliée par la pente de la ligne. En d'autres termes, l'expression linéaire modélise les données sous forme de ligne droite.x f ( x )y=f(x)xf(x)
Maintenant, les méthodes du plus proche voisin ne se soucient pas de savoir à quoi ressemblent les données (ne modélise pas les données), c'est-à-dire qu'elles ne se soucient pas s'il s'agit d'une ligne, d'une parabole, d'un cercle, etc. Tout ce qu'elle suppose, c'est que et seront similaires, si et sont similaires. Notez que cette hypothèse est à peu près vraie pour presque tous les modèles, y compris tous ceux que j'ai mentionnés ci-dessus. Cependant, une méthode NN ne peut pas dire comment la valeur de est liée à (que ce soit une ligne, une parabole, etc.), car elle n'a pas de modèle de cette relation, elle suppose simplement qu'elle peut être approximée par regarder dans les points proches.f ( x 2 ) x 1 x 2 f ( x ) xf(x1)f(x2)x1x2f(x)x