En ce qui concerne la classification basée sur les pixels, vous êtes sur place. Chaque pixel est un vecteur à n dimensions et sera affecté à une classe selon une métrique, que ce soit en utilisant des machines à vecteurs de support, MLE, une sorte de classificateur tricoté, etc.
En ce qui concerne les classificateurs régionaux, cependant, il y a eu d'énormes développements au cours des dernières années, tirés par une combinaison de GPU, de grandes quantités de données, le cloud et une large disponibilité d'algorithmes grâce à la croissance de l'open source (facilité par github). L'un des plus grands développements dans la vision / classification par ordinateur a été dans les réseaux de neurones convolutionnels (CNN). Les couches convolutives "apprennent" des caractéristiques qui pourraient être basées sur la couleur, comme avec les classificateurs à base de pixels traditionnels, mais créent également des détecteurs de bord et toutes sortes d'autres extracteurs de caractéristiques qui pourraient exister dans une région de pixels (d'où la partie convolutionnelle) que vous n'a jamais pu extraire d'une classification basée sur les pixels. Cela signifie qu'ils sont moins susceptibles de mal classer un pixel au milieu d'une zone de pixels d'un autre type - si vous avez déjà exécuté une classification et obtenu de la glace au milieu de l'Amazonie, vous comprendrez ce problème.
Vous appliquez ensuite un réseau neuronal entièrement connecté aux "caractéristiques" apprises via les circonvolutions pour effectuer la classification. L'un des autres grands avantages des CNN est qu'ils sont invariables à l'échelle et à la rotation, car il existe généralement des couches intermédiaires entre les couches de convolution et la couche de classification qui généralisent les fonctionnalités, en utilisant le regroupement et l'abandon, pour éviter le sur-ajustement et aider à résoudre les problèmes autour échelle et orientation.
Il existe de nombreuses ressources sur les réseaux de neurones convolutifs, bien que le meilleur soit la classe Standord d'Andrei Karpathy , qui est l'un des pionniers de ce domaine, et toute la série de conférences est disponible sur YouTube .
Bien sûr, il existe d'autres façons de traiter la classification basée sur les pixels par rapport à la zone, mais c'est actuellement l'approche de pointe et a de nombreuses applications au-delà de la classification par télédétection, telles que la traduction automatique et les voitures autonomes.
Voici un autre exemple de classification basée sur la région , utilisant Open Street Map pour les données d'entraînement marquées, y compris des instructions pour configurer TensorFlow et fonctionner sur AWS.
Voici un exemple utilisant Google Earth Engine d'un classificateur basé sur la détection des bords, dans ce cas pour l'irrigation par pivot - utilisant rien de plus qu'un noyau gaussien et des convolutions, mais encore une fois, montrant la puissance des approches basées sur les régions / bords.
Alors que la supériorité de l'objet sur la classification basée sur les pixels est assez largement acceptée, voici un article intéressant dans Remote Sensing Letters évaluant les performances de la classification basée sur les objets .
Enfin, un exemple amusant, juste pour montrer que même avec les classificateurs régionaux / convolutionnels, la vision par ordinateur est toujours très difficile - heureusement, les personnes les plus intelligentes de Google, Facebook, etc., travaillent sur des algorithmes pour pouvoir déterminer la différence entre chiens, chats et différentes races de chiens et de chats. Ainsi, ceux qui s'intéressent à la télédétection peuvent dormir facilement la nuit: D