Je suis actuellement impliqué dans un projet de programmation d'un capteur d'imagerie. Notre capteur nous fait du bruit, nous voulons donc le corriger. Quelqu'un d'autre sur le projet a eu l'idée de prendre une image "noire", c'est-à-dire de mettre le capuchon d'objectif et de prendre une image censée être entièrement noire. (Évidemment, ce n'est pas dû au bruit) À ce stade, lors des captures suivantes, il prend les valeurs des pixels de l'image noire et les soustrait de l'image régulièrement capturée.
L'image semble meilleure et la plupart du bruit est supprimé, mais je ne suis pas convaincu que ce soit la meilleure approche pour éliminer le bruit en raison des éléments suivants:
La plage de l'image fixe est de [-172 194] (366 valeurs), contre la plage standard de [0 255]. Quand il est redessiné, il revient à [0 255], et il semble mieux, mais je pense que c'est incorrect.
Je dois mentionner que la nouvelle image est prise en basse lumière.
Cette méthode est-elle correcte pour éliminer le bruit? Pourquoi ou pourquoi pas?