Une suggestion de méthode de clustering pour un nombre inconnu de clusters et une distance non euclidienne?


8

J'ai besoin de quelques suggestions pour la méthode de clustering (classification non supervisée) pour un projet de conseil. Je recherche une méthode qui, espérons-le, possède les propriétés suivantes:

  1. Le sujet de mon étude a trois propriétés. L'une est représentée par une matrice de distance (non euclidienne) et les deux autres sont sous forme de vecteurs dans l'espace euclidien. La matrice de distance provient de séquences et peut prendre la forme d'un pourcentage de dissimilarité ou d'une autre mesure de distance de séquences. L'algorithme devrait pouvoir prendre les deux vecteurs dans l'espace euclidien et la distance non euclidienne en entrée. Par exemple, les K-medoids peuvent fonctionner avec une matrice de distance mais pas les K-means.

  2. Je voudrais que l'algorithme sélectionne automatiquement le nombre de clusters et le poids de trois propriétés (avec connaissances et contraintes préalables).

  3. J'ai des informations sur des «centres de clusters» précédemment identifiés. Je voudrais l'incorporer en tant que valeurs antérieures ou initiales.

  4. En tant que statisticien, je préférerais que la méthode ait une fonction de probabilité ou de perte claire.

La chose la plus proche à laquelle je peux penser est l'ajustement d'un modèle de mélange dans le cadre bayésien en utilisant MCMC à saut inversé pour déterminer le nombre de clusters. Les vecteurs dans R ^ d peuvent être facilement formulés en une vraisemblance normale, mais la façon de traiter la matrice de distance n'est pas claire pour moi. Je peux restreindre la moyenne de la probabilité normale d'être à chacune des observations pour faire fonctionner le MCMC, mais cela n'a pas de signification mathématique / statistique claire.

Quelqu'un a-t-il de l'expérience avec un problème similaire? Les suggestions de références seront très appréciées!


Pourquoi ne pas projeter les vecteurs non euclidiens dans l'espace euclidien?
Zach

Réponses:


4

Je pense que l'utilisation d'un critère MAP / Bayésien en combinaison avec un mélange de gaussiens est un choix judicieux. Points

Vous objecterez bien sûr que les MOG nécessitent des données d'entrée euclidiennes . La réponse est de trouver un ensemble de points qui donnent naissance à la matrice de distance qui vous est donnée. Un exemple de technique pour cela est la mise à l'échelle multidimensionnelle:argmin{xi}i,j(||xixj||2Dij)2Dij est la distance du point i pointer j.


Merci. J'utilise une approche similaire! Je pense qu'il y a une faute de frappe dans votre message: il ne devrait pas y avoir de carré(xixj).
Vulpecula

Pourquoi pas? Il s'agit d'une distance euclidienne, il faut donc la mettre au carré. Cependant, c'est une norme, je vais donc essayer de clarifier cela.
bayerj

1

J'ai traité un problème pour ma thèse où je devais faire un clustering sur un ensemble de données pour lequel je n'avais qu'une matrice de similitude (= distance inverse). Bien que je convienne à 100% qu'une technique bayésienne serait la meilleure, je suis allé avec un modèle discriminant appelé Symmetric Convex Coding ( lien ). Je me souviens que cela fonctionnait très bien.

Sur le front bayésien, vous pourriez peut-être envisager quelque chose de similaire au clustering, mais non? Je pense dans le sens de l'allocation de Dirichlet latente - un algorithme vraiment merveilleux. Entièrement génératif, développé dans le contexte de la modélisation du contenu des sujets dans les corpus de documents texte. Mais il trouve de nombreuses applications dans d'autres types de problèmes d'apprentissage automatique non supervisés. Bien sûr, la fonction de distance n'y est même pas pertinente ...


1

DBSCAN fonctionne sans connaître à l'avance le nombre de clusters et peut appliquer une large gamme de métriques de distance.


Merci pour votre réponse BTK, bien qu'il s'agisse plutôt d'un commentaire. Pour en faire une réponse plus, vous voudrez peut-être ajouter un peu plus de détails sur DBSCAN et comment il s'applique à la question spécifique à portée de main.
DL Dahly

1

Vous pouvez utiliser la propagation d'affinité ou une meilleure propagation d'affinité adaptative. Voici le lien Wikipédia .

Il y a deux avantages principaux pour votre cas et un autre troisième qui, je pense, est un avantage mais peut ne pas être important pour vous.

  1. Vous ne fournissez pas le nombre de clusters. Le nombre final de clusters dépend de la valeur de préférence et des valeurs de la matrice de similitude. La façon la plus simple de travailler avec les valeurs de préférence est soit d'utiliser la valeur minimale de la matrice de similitude (qui n'est pas nulle) pour obtenir le plus petit nombre de clusters, puis essayez par exemple le maximum pour le plus de clusters possible et continuez avec la médiane valeur et ainsi de suite ... OU Utilisez l'algorithme de propagation d'affinité adaptative et ayez la préférence déterminée par l'algorithme.

  2. Vous pouvez fournir n'importe quelle mesure de similitude que vous pouvez trouver ou prendre l'inverse d'une mesure de distance (peut-être éviter de diviser par zéro lorsque vous faites cela).

3. (point supplémentaire) L'algorithme choisit un exemplaire représentant chaque cluster et les exemples qui lui appartiennent. Cela signifie que l'algorithme ne vous donne pas une moyenne arbitraire mais un point de données réel. Cependant, vous pouvez toujours calculer des moyennes plus tard bien sûr. ET cela signifie également que l'algorithme n'utilise pas de moyennes intermittentes!

Logiciel: Il existe plusieurs packages répertoriés pour Java, Python et R sur la page Wikipedia. Si vous aimez MATLAB, comme moi, alors voici une implémentation.

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.