Je suis un cours de vision par ordinateur et j'ai cet exercice: écrire un programme qui, étant donné une image de la main, il peut reconnaître si la main est ouverte, fermée, dans un coup de poing, ou en tenant une posture "ok", en utilisant uniquement le techniques fournies jusqu'à présent (pixel 4/8 connecté, région connectée, recherche de contour, recherche de trous, propriété de blob comme le centroïde, zone, périmètre, excentricité, moments de l'image, transformation d'image comme inversion / puissance / log / correction gamma / étirement du contraste, histogramme calcul et égalisation).
Je l'ai fait avec certaines propriétés de base de la goutte (la main fermée a une faible excentricité, "ok" a un trou, la main ouverte a une grande différence entre la zone de l'ellipse inscrite dans la goutte et la zone de goutte elle-même avec une faible excentricité) .. Cela semble fonctionner mais la première image est un peu problématique.
Je pense qu'il pourrait y avoir quelque chose de plus pour rendre un algorithme plus robuste. Peut-être une sorte de propriété de moment? Certains axes / orientation / points extrêmes de blob pourraient-ils aider?
Images de test PS: