Je souhaite traiter des images de microscopie à segmentation automatique pour détecter des images défectueuses et / ou des segmentations défectueuses, dans le cadre d'un pipeline d'imagerie à haut débit. Il existe une multitude de paramètres qui peuvent être calculés pour chaque image brute et segmentation, et qui deviennent «extrêmes» lorsque l'image est défectueuse. Par exemple, une bulle dans l'image entraînera des anomalies telles qu'une taille énorme dans l'une des "cellules" détectées, ou un nombre de cellules anormalement bas pour l'ensemble du champ. Je recherche un moyen efficace de détecter ces cas anormaux. Idéalement, je préférerais une méthode qui présente les propriétés suivantes (à peu près par ordre de désirabilité):
ne nécessite pas de seuils absolus prédéfinis (bien que les pourcentages prédéfinis soient OK);
ne nécessite pas d'avoir toutes les données en mémoire, ni même d'avoir vu toutes les données; il serait bon que la méthode soit adaptative et actualise ses critères à mesure qu'elle voit plus de données; (évidemment, avec une faible probabilité, des anomalies peuvent se produire avant que le système n'ait vu suffisamment de données et seront manquées, etc.)
est parallélisable: par exemple, dans un premier tour, de nombreux nœuds travaillant en parallèle produisent des anomalies candidates intermédiaires, qui subissent ensuite un deuxième tour de sélection après la fin du premier tour.
Les anomalies que je recherche ne sont pas subtiles. Ce sont ceux qui sont clairement évidents si l'on regarde un histogramme des données. Mais le volume de données en question, et l'objectif ultime d'effectuer cette détection d'anomalie en temps réel pendant la génération des images, exclut toute solution qui nécessiterait l'inspection des histogrammes par un évaluateur humain.
Merci!