En complément à la réponse de Penelope , deux familles populaires (et à la mode) d'algorithmes.
Superpixels
Une famille d'algorithmes très populaire appelée Superpixels est très à la mode en ce moment (il y a même des sessions Superpixel dans les conférences CV). Les superpixels ressemblent beaucoup à une sur-segmentation (comme ce que le bassin versant vous donne), donc un certain post-traitement est nécessaire.
Les superpixels peuvent être vus comme de petites régions d'images homogènes . La distance entre les pixels est évaluée comme dans le filtrage bilatéral, c'est-à-dire que c'est un mélange entre leur distance spatiale et leur similitude visuelle qui va à 0 lorsqu'ils sont proches et similaires et à une valeur plus grande sinon.
Ensuite, les méthodes des superpixels essaient divers critères pour former de petites régions homogènes par rapport à cette mesure. Il y en a beaucoup (basé sur un graphique, basé sur la recherche de mode / basé sur un cluster ...), donc je suppose qu'il est préférable de vous référer à ce rapport technique .
(modifier :) Dans le cas où quelqu'un cherche un travail publié par des pairs, cet article est du même auteur et couvre le même matériel que le rapport technique:
R. Achanta, A. Shaji, K. Smith, A. Lucchi, P. Fua, S. Susstrunk: les superpixels SLIC comparés aux méthodes de superpixel les plus récentes
Notez que j'ai écrit la première version de la réponse que visuellement les résultats sont très similaires à ce que la sur-segmentation du bassin versant vous offre. Cela est confirmé par les auteurs du rapport technique qui incluent les bassins versants dans la partie de travail connexe. Ainsi, vous devez également faire le même post-traitement: bien que les superpixels puissent être des fonctionnalités pratiques à utiliser à la place des pixels, ils doivent toujours être groupés afin de former des régions de niveau supérieur si vous avez besoin de suivre / détecter des objets.
Méthodes de segmentation basées sur des graphiques
Une autre famille d'algorithmes populaire vient de l'analyse de la relation entre les pixels, c'est-à-dire de la façon dont les pixels sont proches dans leur apparence. Cela donne une famille de méthodes de segmentation basées sur la théorie des graphes telles que la coupe normalisée (J. Shi, J. Malik: Coupes normalisées et segmentation d'image ) .
Voici l'intuition de cette approche: supposons que vos pixels soient maintenant des points (sommets) d'un graphe de grande dimension.
Dans le graphique, deux sommets peuvent être reliés par une arête , dont le poids est inversement proportionnel à une certaine distance entre les sommets. Typiquement, la fonction de poids sera une réciproque d'un mélange entre leur distance spatiale et leur similitude visuelle 8as dans le filtrage bilatéral).
Ensuite, étant donné ce graphique, les algorithmes de segmentation peuvent rechercher les meilleurs groupes de sommets, c'est-à-dire les groupes de sommets qui ont une petite distance intra-groupe et une grande distance extra-groupe .
Dans l'approche de la coupe normalisée, des précautions supplémentaires sont prises afin d'éviter tout biais introduit par les différentes tailles de population des grappes. De plus, l'exploration des graphes peut être évitée en calculant la SVD de la matrice des poids, également connue sous le nom de matrice de connectivité en théorie des graphes.