Pourquoi mon appareil photo dessine-t-il des labyrinthes sur mes photos?


8

Sur les photos où la lumière parasite est présente, mon Nikon D7000 dessine d'étranges artefacts d'aspect labyrinthe. Voici un exemple.

La première image est une capture d'écran d'une petite partie de la photo originale agrandie 2: 1 dans Lightroom.

La deuxième image est la même photo avec le contraste, la clarté et la netteté de Lightroom réglés au maximum pour rendre le motif du labyrinthe plus visible.

entrez la description de l'image ici

entrez la description de l'image ici

Cela n'affecte que certaines des photos présentant une lumière parasite. Ici, par exemple, la lumière parasite est présente et les conditions d'éclairage sont très proches de la première photo, mais il n'y a pas de motif de labyrinthe, seulement du bruit habituel (capture d'écran d'une partie d'une photo au 1: 1 avec contraste, clarté et jeu de netteté) au maximum):

entrez la description de l'image ici

Remarques:

  • Je ne peux voir ce motif que sur certaines photos lorsque le soleil est dans le cadre ou presque dans le cadre.

  • Il est présent avec tous les objectifs que j'ai testés.

  • La photo réelle a été prise à f / 8, 200 ISO, 1/640 s. J'ai également vu ce modèle sur des photos prises à 100 ISO.

  • La photo est au format RAW, ce n'est donc pas un artefact JPEG.

Qu'est-ce que c'est? Comment l'éviter?


3
La nature des artefacts me fait penser que cela se produit à l'étape de dématriçage, mais il n'y a rien d'inhabituel dans le réseau de filtres de couleur du D7000 qui provoquerait quelque chose comme ça. Je ne suppose pas que vous pourriez fournir un échantillon RAW?
Hobbs

3
Je dois dire que si vous regardez ce niveau de zoom sur une image et recherchez des problèmes, vous les trouverez. Et vous les exagérez par exemple en les accentuant. Mais voyez-vous réellement ces choses sur une copie? Importent-ils vraiment ou rendez-vous simplement votre vie plus difficile à vous soucier d'eux? Ce que vous faites serait comme prendre un microscope pour examiner un film négatif et se plaindre de la visibilité du grain.
StephenG

@hobbs: voici un exemple RAW: drive.google.com/file/d/0B3keqY_6PUhwTjRJSXJYdU1UQUE/… . Ce n'est pas cette photo exacte que j'ai postée dans ma question (depuis que j'ai supprimé le RAW depuis), mais celle prise quelques secondes plus tard et qui présente exactement le même schéma.
Arseni Mourzenko

@StephenG: Je n'ai jamais dit que je m'inquiétais de ces schémas. Je suis simplement curieux de connaître leur origine, compte tenu de leur forme inhabituelle; Heureusement, j'ai posé la question et j'ai appris quelque chose de nouveau grâce aux bonnes réponses.
Arseni Mourzenko

Réponses:


5

Tout ce que vous visualisez à l'écran n'est pas une donnée brute. Les données d'image brutes sont des valeurs de luminance monochrome linéaire et rien d'autre. Tout ce qui affiche plus d'une couleur est le résultat de l'application que vous utilisez pour visualiser l'image traduisant les valeurs de luminance brutes en courbes de lumière corrigées gamma et le dématriçage appliqué pour créer des couleurs interpolées et la réduire à 8 bits pour être envoyée à votre 8 -bit moniteur.

Si vous affichez les mêmes données brutes à l'aide d'une application qui utilise différents algorithmes de dématriçage et de correction gamma, vous verrez différents modèles qui peuvent être plus ou moins réguliers que ceux que vous avez obtenus avec l'application que vous utilisiez pour les afficher ci-dessus.

Les motifs que vous voyez dans la première image sont également présents dans la seconde. Ils ne sont tout simplement pas aussi répandus ou uniformes. Regardez attentivement la zone de transition entre la zone très claire et très sombre près du coin supérieur gauche. Ils sont là. Votre première image a juste beaucoup plus de zone où il y a des valeurs tonales moyennes qui sont toutes de la même teinte et qui sont poussées vers le haut (pixels plus clairs) ou vers le bas (les pixels plus sombres) par l'algorithme de traitement.

Recadrage 4X
Un recadrage agrandi 4x de votre deuxième image

Recadrage 8X
Un recadrage agrandi 8X d'une zone proche du centre supérieur du recadrage ci-dessus. Remarquez les motifs de «marche d'escalier» le long de la zone de contraste diagonale?

Lorsque vous augmentez le contraste, vous augmentez la courbe de réponse à la lumière et les petites différences de luminosité dans les tons moyens sont amplifiées. En fait, vous forcez tous les pixels à être très sombres ou très clairs avec peu d'intervalle.

C'est juste une supposition, mais mon intuition est que les lignes sombres de la première image sont les pixels les plus influencés par les pixels filtrés bleus et les lignes plus claires sont les pixels les plus influencés par les pixels filtrés rouges et verts. Gardez à l'esprit que les trois valeurs de couleur pour chaque pixel sont généralement interpolées lors du dématriçage. En effet, une partie du spectre visible passe à travers les trois filtres colorés différents d'un masque Bayer . Certains des pixels filtrés en vert entre deux pixels de couleur bleue sont plus sombres. La plupart des pixels verts sont tirés avec les rouges vers plus clairs. Cela expliquerait pourquoi les lignes de couleur claire ont généralement une largeur de deux pixels et les lignes plus sombres ont une largeur de pixel unique.

Lorsque presque toute la lumière dans une zone donnée est proche de la même couleur (en termes de chrominance), la seule chose que l'algorithme de dématriçage doit différencier un pixel du suivant est la luminosité. La lumière parasite provoquée par le soleil rend la luminosité d'un pixel au suivant plus uniforme que ce ne serait le cas autrement. Cela pourrait expliquer le phénomène de lignes droites plus longues de pixels plus sombres et plus clairs plutôt qu'une distribution plus aléatoire comme on le voit sur la plupart de la deuxième photo.


7

Bonne capture, ce problème de "diaphonie du canal vert" lui ressemble exactement. Ma compréhension est que (en raison des caprices de la conception du capteur), la moitié des pixels verts finissent par être plus fortement corrélés avec le rouge, et la moitié finissent par être plus fortement corrélés avec le bleu, et quand tout cela tremble, certains algorithmes interprètent cela comme étant à haute fréquence contenu luma, plus ou moins.
Hobbs

C'est exactement pourquoi j'ai demandé un raw - j'espérais exécuter l'image d'OP à travers quelques algorithmes alternatifs :)
hobbs

4

Pour confirmer l'analyse de ben rudgers, j'ai pris le fichier NEF que vous avez fourni et l'ai exécuté via RawTherapee.

Voici un agrandissement d'un recadrage similaire sans ajustements et l'algorithme de dématriçage "amaze" par défaut:

étonner

Voici la même chose avec l'algorithme "DCB":

dcb

Et voici la même chose avec l'algorithme "VNG4", qui est connu pour être résistant à la diaphonie verte, mais un peu moins net dans l'ensemble:

VNG4

La zone à problème est à peu près idéale pour mettre en évidence ce problème: les valeurs dans les canaux rouge et bleu sont très différentes (le bleu est presque nul, le rouge est similaire au vert), il y a des correctifs peu détaillés (les artefacts sont plus apparents sans détails les couvrant), et cette partie de la photo est près d'un coin, où la lumière atteint le capteur à un angle plus bas, ce qui rend la diaphonie plus susceptible de se produire.

J'ai essayé de créer une autre image en utilisant le mode de dématriçage "aucun", pour illustrer la différence de valeur entre les pixels verts entourés de rouges et les pixels verts entourés de bleu, mais je ne pouvais pas vraiment le gérer :)

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.