Réponses:
Ce sont des méthodes complètement différentes. Le fait qu'ils aient tous les deux la lettre K dans leur nom est une coïncidence.
K-means est un algorithme de classification qui essaie de partitionner un ensemble de points en K ensembles (clusters) tels que les points de chaque cluster tendent à être proches les uns des autres. Il n'est pas supervisé car les points n'ont pas de classification externe.
K plus proches voisins est un algorithme de classification (ou de régression) qui, afin de déterminer la classification d'un point, combine la classification des K points les plus proches. Il est supervisé parce que vous essayez de classer un point sur la base de la classification connue des autres points.
Comme indiqué par Bitwise dans leur réponse , k-means est un algorithme de classification. S'il s'agit de k-voisins les plus proches (k-NN), la terminologie est un peu floue:
dans le contexte de la classification, il s'agit d'un algorithme de classification, comme indiqué également dans la réponse susmentionnée
en général c'est un problème pour lequel il existe différentes solutions (algorithmes)
Ainsi, dans le premier contexte, dire "classifieur k-NN" peut en réalité signifier divers algorithmes concrets sous-jacents qui résolvent le problème de k-NN, et leur résultat est interprété aux fins de la classification.
Ce sont deux choses différentes, mais vous trouverez peut-être intéressant que l'algorithme k-means soit l'une des différentes méthodes possibles pour résoudre le problème k-NN (Marius Muja et David G. Lowe, "Voisins approximatifs approximatifs rapides avec configuration automatique d'algorithme" , in Conférence internationale sur la théorie et les applications de la vision par ordinateur (VISAPP'09, 2009 PDF )
Vous pouvez avoir un k-means supervisé. Vous pouvez construire des centroïdes (comme dans k-means) en fonction de vos données étiquetées. Rien ne t'arrête. Si vous voulez améliorer cela, l'espace euclidien et la distance euclidienne pourraient ne pas vous fournir les meilleurs résultats. Vous devrez choisir votre espace (par exemple, un espace riemannien) et définir la distance entre les points (et même définir un "point"). Les deux derniers sont des sujets de recherche et dépendent également du type (propriétés) de données (signal) dont vous disposez.
k Les moyens peuvent être utilisés comme phase d’entraînement avant que knn soit déployé à l’étape de classification proprement dite. K moyennes crée les classes représentées par les étiquettes centroïde et classe des échantillons appartenant à chaque classe. knn utilise ces paramètres ainsi que le nombre k pour classer un nouvel échantillon invisible et l'affecter à l'une des k classes créées par l'algorithme de moyennes de K