Clustering - Intuition derrière le théorème d'impossibilité de Kleinberg


17

J'ai pensé à écrire un article de blog sur cette intéressante analyse de Kleinberg (2002) qui explore la difficulté du clustering. Kleinberg décrit trois desiderata apparemment intuitifs pour une fonction de clustering et prouve ensuite qu'aucune fonction de ce type n'existe. Il existe de nombreux algorithmes de clustering qui satisfont deux des trois critères; cependant, aucune fonction ne peut satisfaire les trois simultanément.

Brièvement et officieusement, les trois desiderata qu'il décrit sont:

  • Scale-Invariance : Si nous transformons les données de manière à ce que tout soit étalé de manière égale dans toutes les directions, le résultat du clustering ne devrait pas changer.
  • Cohérence : si nous étirons les données de sorte que les distances entre les clusters augmentent et / ou les distances au sein des clusters diminuent, le résultat du clustering ne devrait pas changer.
  • Richesse : La fonction de clustering devrait théoriquement être capable de produire n'importe quelle partition / clustering arbitraire de points de données (en l'absence de connaître la distance par paire entre deux points quelconques)

Des questions:

(1) Y a-t-il une bonne intuition, une image géométrique qui peut montrer l'incohérence entre ces trois critères?

(2) Il s'agit des détails techniques du document. Vous devrez lire le lien ci-dessus pour comprendre cette partie de la question.

Dans l'article, la preuve du théorème 3.1 est un peu difficile à suivre pour moi. Je suis coincé: "Soit une fonction de clustering qui satisfait la cohérence. Nous affirmons que pour toute partition Γ Range ( f ) , il existe des nombres réels positifs a < b tels que la paire ( a , b ) est Γ - forçant. "fΓRange(f)a<b(a,b)Γ

Je ne vois pas comment cela peut être le cas ... La partition ci-dessous n'est-elle pas un contre-exemple où (c'est-à-dire que la distance minimale entre les clusters est supérieure à la distance maximale au sein des clusters)?a>b

contre-exemple?

Edit: ce n'est clairement pas un contre-exemple, je m'embrouillais (voir réponses).


Autres papiers:


Concernant la "cohérence": cette caractéristique n'est intuitivement souhaitée que lorsque les clusters sont déjà bien séparés. Quand ils ne le sont pas, il y a un problème sur le nombre de clusters dans les données - pour l'analyse, car il n'est pas supervisé, c'est une question. Ensuite, il est tout à fait normal de s'attendre à ce que lorsque vous ajoutez progressivement la distance entre les clusters (tels qu'ils ont été générés par vous), l'analyse modifie les affectations qu'elle fait pendant le processus de clustering.
ttnphns

En ce qui concerne la "richesse": je suis désolé de ne pas avoir compris ce que cela signifie (du moins comme vous l'avez dit). Les algorithmes de clustering sont nombreux, comment pouvez-vous vous attendre à ce qu'ils obéissent tous à une exigence particulière?
ttnphns

En ce qui concerne votre image: des méthodes de clustering spéciales sont nécessaires pour reconnaître un tel modèle. Les méthodes de regroupement traditionnelles / originales proviennent de la biologie et de la sociologie, où les grappes sont des "îles" plus ou moins sphéroïdes, et non des anneaux d'atoll. Ces méthodes ne peuvent pas exiger de faire face aux données sur l'image.
ttnphns

Vous pourriez également être intéressé par: Estivill-Castro, Vladimir. "Pourquoi tant d'algorithmes de clustering: une prise de position." ACM SIGKDD explorations newsletter 4.1 (2002): 65-75.
Anony-Mousse -Reinstate Monica

Je n'ai pas lu le journal. Mais dans de nombreux algorithmes de clustering, vous avez un certain seuil de distance (par exemple DBSCAN, clustering hiérarchique). Si vous modifiez les distances, vous devez également adapter votre seuil en conséquence. Ainsi, je ne suis pas d'accord avec son exigence d'invariance d'échelle. Je suis également en désaccord avec la richesse. Toutes les partitions ne doivent pas être une solution valide pour chaque algorithme. Il y a des millions de partitions aléatoires.
Anony-Mousse -Reinstate Monica

Réponses:


11

D'une manière ou d'une autre, chaque algorithme de clustering repose sur une certaine notion de «proximité» des points. Il semble intuitivement clair que vous pouvez utiliser une notion relative (invariante d'échelle) ou une notion absolue (cohérente) de proximité, mais pas les deux .

Je vais d'abord essayer d'illustrer cela avec un exemple, puis je dirai comment cette intuition correspond au théorème de Kleinberg.

Un exemple illustratif

Supposons que nous ayons deux ensembles et S 2 de 270 points chacun, disposés dans le plan comme ceci:S1S2270

deux séries de 270 points

Vous ne verrez peut-être pas points dans l'une de ces images, mais c'est simplement parce que beaucoup de points sont très proches les uns des autres. Nous voyons plus de points lorsque nous zoomons:270

set 1 avec zoom

Vous serez probablement spontanément d'accord pour dire que, dans les deux ensembles de données, les points sont disposés en trois groupes. Cependant, il s'avère que si vous zoomez sur l'un des trois groupes de , vous voyez ce qui suit:S2

set 2 avec zoom

Si vous croyez à une notion absolue de proximité, ou à la cohérence, vous maintiendrez toujours que, indépendamment de ce que vous venez de voir au microscope, compose de seulement trois grappes. En effet, la seule différence entre S 1 et S 2 est que, au sein de chaque cluster, certains points sont désormais plus rapprochés. Si, par contre, vous croyez à une notion relative de proximité, ou à l'invariance d'échelle, vous aurez tendance à soutenir que S 2 n'est pas composé de 3 mais de 3 × 3 = 9 clusters. Aucun de ces points de vue n'est faux, mais vous devez faire un choix dans un sens ou dans l'autre.S2S1S2S233×3=9

Un cas pour l'invariance isométrique

Si vous comparez l'intuition ci-dessus avec le théorème de Kleinberg, vous constaterez qu'ils sont légèrement en désaccord. En effet, le théorème de Kleinberg semble dire que vous pouvez obtenir simultanément l'invariance et la cohérence d'échelle tant que vous ne vous souciez pas d'une troisième propriété appelée richesse. Cependant, la richesse n'est pas la seule propriété que vous perdez si vous insistez simultanément sur l'invariance et la cohérence de l'échelle. Vous perdez également une autre propriété, plus fondamentale: l'isométrie-invariance. C'est une propriété que je ne serais pas prêt à sacrifier. Comme il n'apparaît pas dans l'article de Kleinberg, je m'y attarderai un instant.

En bref, un algorithme de clustering est invariant en isométrie si sa sortie ne dépend que des distances entre les points, et non de certaines informations supplémentaires comme des étiquettes que vous attachez à vos points, ou d'un ordre que vous imposez à vos points. J'espère que cela ressemble à une condition très douce et très naturelle. Tous les algorithmes discutés dans l'article de Kleinberg sont invariants en isométrie, à l'exception de l'algorithme de liaison unique avec la condition d'arrêt cluster. Selon la description de Kleinberg, cet algorithme utilise un ordre lexicographique des points, donc sa sortie peut en effet dépendre de la façon dont vous les étiquetez. Par exemple, pour un ensemble de trois points équidistants, la sortie de l'algorithme de liaison unique avec le 2k2-la condition d'arrêt de la grappe donnera des réponses différentes selon que vous étiquetez vos trois points comme "chat", "chien", "souris" (c <d <m) ou comme "Tom", "Spike", "Jerry" (J <S <T):

regroupement de {chat, chien, souris} contre {Tom, Spike, Jerry}

Ce comportement contre nature peut bien sûr être facilement réparé en remplaçant la condition d'arrêt de la grappe par une «condition d'arrêt de la grappe ( k ) ». L'idée est simplement de ne pas rompre les liens entre les points équidistants et d'arrêter de fusionner les clusters dès que nous avons atteint au plus k clusters. Cet algorithme réparé produira toujours kk(k) kk grappes la plupart du temps, et il sera invariant en isométrie et invariant en échelle. En accord avec l'intuition donnée ci-dessus, elle ne sera cependant plus cohérente.

SSS

Γ:{metrics on S}{partitions of S}dΓ(d)
iddSi:SSd(i(x),i(y))=d(x,y)xyS

Γddii(x)i(y)Γ(d)xyΓ(d)

SSS

un ensemble de points dans le plan, et deux rotations de celui-ci

Une variante du théorème de Kleinberg

L'intuition donnée ci-dessus est capturée par la variante suivante du théorème de Kleinberg.

Théorème: Il n'y a pas d'algorithme de regroupement non trivial à invariance isométrique qui soit à la fois cohérent et invariant à l'échelle.

Ici, par un algorithme de clustering trivial , je veux dire l'un des deux algorithmes suivants:

  1. S

  2. S

L'affirmation est que ces algorithmes stupides sont les deux seuls algorithmes invariants d'isométrie qui sont à la fois cohérents et invariants à l'échelle.

SΓdSd(x,y)=1xySΓΓ(d)Γ(d)Γ(d)Γ(d)dS1dΓ(d)=Γ(d)ΓΓ(d)dS1Γ(d)=Γ(d)Γ

Bien sûr, cette preuve est très proche dans l'esprit de la preuve de Margareta Ackerman du théorème original de Kleinberg, discutée dans la réponse d'Alex Williams.


7

C'est l'intuition que j'ai trouvée (un extrait de mon blog ici ).

entrez la description de l'image ici

d1d2d3d2d3d1d1d3d2d3


Voulez-vous dire en bas à gauche pour d2? Une bonne chose à propos de votre diagramme est qu'il montre comment la cohérence n'est pas une propriété généralement souhaitable (ou qu'elle est formulée de manière trop lâche).
Xan

Oui en bas à gauche, édité la réponse en conséquence. Merci!
Alex Williams

Avant de bien comprendre votre réponse, j'ai trouvé une logique qui se révèle être la double de la vôtre: commencer par un clustering où tous les points sont dans le même cluster. Transformez-le en tout autre arrangement en le réduisant en une version miniature de tout autre arrangement et en le faisant passer à une version pleine grandeur de l'autre arrangement.
Xan
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.