Quel est le but de la correction gamma dans les écrans d'aujourd'hui et comment est-elle liée aux graphiques et à la photographie?


15

Je suis assez confus avec l'objectif de la correction gamma et la relation entre les images corrigées gamma et non corrigées en termes de graphiques et de photographie ainsi que la gestion des couleurs en général (conversion de RVB linéaire en espaces RVB corrigés gamma, puis affichage sur le écran).

De nombreuses sources, principalement http://www.guillermoluijk.com/article/gamma/index.htm et la question # 23026151 sur StackOverflow (Dois-je corriger gamma la sortie couleur finale sur un ordinateur / moniteur moderne?) , Je ' Je suis arrivé à la conclusion que:

La correction gamma a été initialement conçue pour compenser la réponse non linéaire des moniteurs CRT au signal d'entrée. Les CRT n'étaient pas en mesure d'amplifier le signal d'entrée eux-mêmes et, par conséquent, le signal de sortie du PC devait être ajusté, donnant lieu (à ce jour) à une correction gamma 2.2 standard et à un espace colorimétrique sRGB.

Les écrans modernes , cependant, ne souffrent pas de la perte de signal comme les CRT. Ils peuvent également montrer certaines non-linéarités mais étant donné que le signal d'entrée n'est le plus souvent transporté que par 8 bits par canal (256 nuances), ils devraient être capables de compenser eux-mêmes certaines non-linéarités dans leur reproduction des couleurs car ils sont probablement capables de reproduire plus de 256 nuances dans un canal. Cela signifierait que la correction gamma avec sRGB et tous les espaces colorimétriques corrigés gamma ne sont qu'un héritage de l'ère CRT et son seul but était d'afficher le signal d'entrée de façon linéaire.

Il existe également des articles affirmant que la correction gamma est là pour compenser la non-linéarité de la vision humaine(CambridgeInColour.com - Comprendre la correction gamma) qui devrait correspondre à peu près à la courbe gamma car nous sommes capables de repérer de petites différences dans les nuances plus sombres mais ne le faisons pas aussi bien avec les plus claires (la luminosité d'un point doit croître de façon exponentielle pour qu'il puisse semblent plus lumineux). Ce n'est pas ainsi que les capteurs de la caméra enregistrent la scène. Les données brutes d'un capteur sont obtenues en RVB linéaire et développées dans un espace colorimétrique RVB à correction gamma (ombres levées et lumières assombries). La correction gamma était censée compenser la perte de signal de sortie, donc ce que je pense que les écrans modernes font, c'est qu'ils simulent simplement le comportement des CRT pour annuler la correction gamma et afficher la scène exactement comme elle a été capturée par la caméra - en gros, la cartographie de la caméra teintes 1: 1 à celles de l'écran. Bien,

Cela signifie-t-il alors que chaque nuance dans l'espace colorimétrique RVB doit avoir exactement les mêmes valeurs RVB dans tous les autres espaces RVB, y compris RVB linéaire (par exemple, # 010A1F en sRGB se traduit exactement par # 010A1F en RVB linéaire en termes de stockage dans un fichier bitmap avec 8bpc) et ce n'est qu'à l'écran et à l'adaptateur graphique comment ils organisent le transfert de couleur et si chaque côté doit effectuer des recalculs supplémentaires afin de convertir l'image en espace colorimétrique de destination? En d'autres termes, changer l'espace colorimétrique dans un éditeur graphique n'a en fait rien à voir avec les valeurs RVB elles-mêmes, prend seulement note du nouvel espace colorimétrique dans les métadonnées d'image? Je crois que ce n'est pas le cas car la gestion des couleurs en tant que telle serait rendue inutile lorsque l'adaptateur graphique numérique / l'interface d'écran est utilisé - l'adaptateur graphique pourrait simplement envoyer des données RVB simples quel que soit l'espace colorimétrique utilisé car aucun gain analogique (gamma) ne serait appliqué aux valeurs qui vont sur une échelle linéaire de 0 à 255. De plus, la gamme de profils de couleurs différents serait la même si aucune erreur d'arrondi n'était introduite, ou?

Ma dernière confusion vient peut-être de l'incompréhension de la conversion du profil de couleur et du tableau des niveaux d'exposition (le premier) dans l'article http://www.guillermoluijk.com/article/superhdr/index.htm (peut être traduit en utilisant Google Traduction). Dois-je comprendre correctement que les valeurs linéaires sont transformées à l'aide d'une fonction exponentielle (ou gamma inverse), rétrécissant la gamme tonale vers les ombres et assombrissant ainsi l'image? Est-ce ce qui se passe si nous enregistrons le RVB linéaire et le présentons sous forme d'image corrigée gamma à l'écran de l'ordinateur?

Je m'excuse d'avoir posé une question aussi complexe, mais il s'avère très difficile de trouver une très bonne source d'informations expliquant toutes les incertitudes qui se posent. Merci d'avance pour toute réponse qui pourrait aider à corriger mon malentendu.


4
Vous voudrez peut-être essayer de condenser cette question. Bien qu'il soit toujours possible d'y répondre uniquement à partir du titre, je pense que le modifier serait un bon moyen de vous aider à comprendre le sujet vous-même.
JenSCDC

1
Je commence à travailler sur une réponse, en grande partie parce que j'ai réalisé que j'avais beaucoup oublié, et répondre à la question de quelqu'un est un bon moyen de le réapprendre.
JenSCDC

La raison principale est simplement la rétrocompatibilité. Vous voulez pouvoir utiliser le même ordinateur et le même logiciel avec les anciens moniteurs CRT et les moniteurs LCD modernes. Le logiciel continue de faire la même chose que ce qu'il faisait autrefois: il crée des images dans l'espace colorimétrique sRGB. Cela inclut, bien sûr, la correction gamma habituelle. Ensuite, les anciens moniteurs CRT utiliseront les images telles quelles, tandis que les écrans modernes "annuleront" la conversion d'un espace colorimétrique linéaire en espace colorimétrique sRGB.
Jukka Suomela

Et comment cela se rapporte à la photographie: avec les bons outils, ce n'est pas le cas. La correction gamma (et plus généralement les conversions entre différents espaces colorimétriques) se produit automatiquement; les utilisateurs normaux ne devraient pas du tout pouvoir le voir. C'est juste une technicité dont les programmeurs informatiques devront être conscients, mais les utilisateurs finaux n'ont pas du tout besoin de le savoir. (À moins, bien sûr, que vous souhaitiez explicitement entrer quelque chose comme des valeurs de couleur hexadécimales dans l'espace colorimétrique sRGB, auquel cas vous savez très probablement ce que vous faites.)
Jukka Suomela

Réponses:


10

de Charles Poynton "La réhabilitation du gamma" :

Idée fausse: la non-linéarité d'un moniteur CRT est un défaut qui doit être corrigé.

Réalité: La non-linéarité d'un tube cathodique est presque l'inverse de la sensibilité à la légèreté de la vision humaine. La non-linéarité fait que la réponse d'un tube cathodique est à peu près uniforme sur le plan perceptuel. Loin d'être un défaut, cette fonctionnalité est hautement souhaitable.

Idée fausse: le but principal de la correction gamma est de compenser la non-linéarité du tube cathodique.

Réalité: Le but principal de la correction gamma en vidéo, graphiques de bureau, prépresse, JPEG et MPEG est de coder les valeurs de luminance ou de tristimulus (proportionnelles à l'intensité) dans un domaine perceptuellement uniforme, afin d'optimiser les performances perceptuelles d'un nombre limité de bits dans chaque composant RVB (ou CMJN).

le reste de l'article est très instructif aussi :)


La scène dans Nature est en gamma linéaire, et doit être présentée sur un écran ou sur papier de la même manière, avec une petite augmentation de gamma pour compenser les reflets - généralement le gamma 1.1 ou 1.2.
Iliah Borg

1
La thèse de doctorat du Dr Poynton est maintenant en ligne: poynton.ca/PDFs/Poynton-2018-PhD.pdf . Les chapitres 3 et 4 traitent des courbes classiques, le chapitre 8 présente l'OETF "Barten Lightness" qui a la même forme que la courbe Dolby PQ (SMPTE-2084). À l'extrémité supérieure de l'échelle, il se transforme de façon transparente d'un gamma en une courbe logarithmique, ce que nous attendions réellement. Tout le livre est très instructif!
Jeroen van Duyn du

7

Considérez cet exemple de Cambridge en couleur :

entrez la description de l'image ici

En appliquant le codage gamma, nous sommes en mesure de représenter l'image originale avec plus de précision, avec la même profondeur de bits (5, dans cet exemple).

Ceci est réalisé en utilisant les 32 niveaux d'une manière qui correspond plus étroitement à l'œil humain. En d'autres termes, c'est une forme de compression. Les JPEG, par exemple, peuvent en fait stocker environ 11 arrêts de plage dynamique malgré l'utilisation de seulement 8 bits par canal.

Et comme toute autre forme de compression, peu importe si vous ne vous souciez pas de la taille du fichier (et de la vitesse inférieure avec laquelle vous pouvez lire ou écrire des fichiers plus volumineux). Vous pourriez, en théorie, utiliser un format de type JPEG qui utilisait le gamma linéaire, si vous vouliez allouer 11 bits à chaque canal plutôt que 8.

Donc, pour résumer, le gamma n'est qu'une forme de compression: il réduit la taille du fichier nécessaire pour stocker une certaine quantité d'informations telle que l'œil la perçoit. Alternativement, il vous permet de stocker des dégradés plus subtils dans la même profondeur de bits.


7

Je suis un ancien ingénieur de diffusion et je travaille actuellement dans les longs métrages et la télévision en tant que monteur et superviseur d'effets visuels.

De nombreuses déclarations ici sont incorrectes. Le gamma dans le chemin du signal est un avantage souhaité , et un choix de conception par les premiers ingénieurs vidéo pour réduire le bruit perçu lors de la transmission.

Tous les tubes à vide, y compris les tubes cathodiques, présentent diverses non-linéarités (voir la loi Langmuir-Child). Les tubes cathodiques peuvent varier d'un "gamma" de 1,5 à plus de 3,5 (lorsqu'ils sont entraînés par un signal de tension) en fonction de diverses différences de conception. Les non-linéarités posaient moins de problèmes avec le monochrome, mais devenaient plus critiques avec la couleur, de sorte que le NTSC spécifiait un gamma de signal de 1 / 2,2. La conception des CRT et les circuits de support ajustent le gamma réel de la loi de Langmuir-Child (communément compris comme 1,5, mais est généralement plus élevé avec les CRT en raison d'un certain nombre de facteurs) à un niveau conforme à la perception gamma humaine de ~ 2,5. Pour le NTSC, le téléviseur était supposé avoir un objectif gamma de ~ 2,4, ** tandis que PAL indiquait ~ 2,8

Le gamma plus élevé dans les anciennes normes de signal de diffusion analogique vise spécifiquement à réduire le bruit perçu, basé sur une perception humaine non linéaire. Dans ce cas d'utilisation, profiter des non-linéarités pour masquer le bruit par l'effet "companding" du codage gamma du signal. C'est assez académique.

Il existe plusieurs façons dont la conception du moniteur et du téléviseur CRT aurait pu être modifiée pour atteindre la linéarité par opposition à une courbe de type gamma, mais une courbe gamma en radiodiffusion analogique a réduit le bruit apparent de 30 dB. Le gamma était alors souhaitable COMME IL EST MAINTENANT .

Le gamma est nécessaire même si un moniteur LCD peut être utilisé de manière linéaire (gamma 1.0). Les affirmations ici selon lesquelles le gamma n'est plus nécessaire sont des couchettes complètes et ne comprennent pas le but actuel de l'application d'une courbe de préaccentuation.

Le gamma est ce qui permet au sRGB (ou Rec709) de paraître "bon" même si la profondeur de bits n'est que de 8 bits par canal. Voici un exemple:

Il s'agit d'une image en sRGB, 8 bits, avec pré-accentuation gamma (c'est-à-dire une image Web normale). Ordinaire

Voici à quoi ressemblerait cette image sans le bénéfice du gamma (c'est-à-dire s'il s'agissait de valeurs linéaires et d'un affichage linéaire, pas de pré-accentuation gamma). mal

Gamma fournit PLUS DE BITS dans les zones sombres pour des dégradés plus lisses et un bruit plus faible.

Si vous vouliez devenir totalement linéaire, votre chemin de signal complet aurait besoin d'au moins 12 bits par canal. 8 bpc NE SUFFISENT PAS. Le codage avec une courbe et le décodage à l'écran permettent l'utilisation d'un plus petit bloc de données d'un octet par canal de couleur.

Dans le film, nous utilisons linéaire comme espace de travail , mais lorsque nous travaillons avec linéaire, nous sommes en virgule flottante 32 bits par canal . Lorsque nous échangeons des fichiers d'images linéaires, nous utilisons EXR Half, qui est un flottant de 16 bits par canal. (Et si nous utilisons des fichiers DPX 10 bits, les données d'image sont encodées à l'aide d'une courbe LOG).

MAIS

Les moniteurs d'ordinateur que nous utilisons sont toujours 8 ou 10 bits POUR L'AFFICHAGE, donc toutes les images linéaires doivent encore être ajustées gamma avant d'être envoyées au moniteur. Pourquoi?

La plupart des "bons" moniteurs ne sont que de 8 bits par canal, et beaucoup ne sont que "6 bits internes", ce qui signifie qu'ils prennent une image de 8 bits par canal et s'affichent en 6 bits par canal. Comment peuvent-ils faire une image acceptable?

GAMMA!

Les moniteurs 10 bits par canal sont rares et chers (comme mon NEX PA271W). Mon NEC peut prendre un signal de 10 bits et utilise une LUT interne de 14 bits pour le profilage. Mais 10 bits n'est pas encore suffisant pour linéaire!

Gamma ou une certaine forme de courbe préemph / deemph est nécessaire même pour 10 bits. 12 bits est le strict minimum pour un affichage linéaire raisonnable, et même alors, est inacceptable pour l'industrie du long métrage.

Nous utilisons des projecteurs 12 bits pour DCDM (Digital Cinema) et devinez quoi? Non seulement DCDM utilise CIE X´Y´Z´, nous utilisons également un projecteur gamma de 2,6 !!!

DCI a été créé pour les théâtres et est son propre écosystème fermé, sans recours aux anciennes technologies comme le CRT. S'il y avait un "avantage" à utiliser un espace linéaire (gamma 1.0), il aurait été utilisé, mais ce n'est pas le cas.

Le linéaire n'est PAS utilisé dans le cinéma numérique car l' AVANTAGE utilise une courbe gamma .

Alors, veuillez cesser de dire que nous n'utilisons le gamma que pour des raisons héritées, car c'est faux.

Veuillez lire Poynton sur le sujet , car il clarifie ces questions d'une manière facile à comprendre.

Merci pour la lecture.

Note: ** Bien que le NTSC spécifié un gamma signal de 1 / 2,2, les téléviseurs étaient attendus à un gamma de 2,4 pour un gain gamma du système. Il est utile de souligner que Rec709 (HDTV) et sRGB sont identiques à l'exception de la courbe de transfert. Et fait intéressant, Rec709 (via BT1886) spécifie un "gamma d'affichage physique" de 2,4 (c'est-à-dire le gamma du moniteur lui-même) et les moniteurs sRGB sont généralement définis à 2,4 ou plus (les enquêtes montrent que la plupart des utilisateurs les définissent à 2,5 et plus). Mais le gamma SIGNAL est différent, env. 1 / 2,2 pour sRGB et environ 1 / 2,0 pour Rec709. dans les deux cas, il existe un gain gamma du système qui est intentionnel en fonction de l'environnement de visualisation attendu.


Je me suis toujours demandé pourquoi l'industrie audio n'utilisait pas la même approche mais y jetait plutôt 16 bits par échantillon ...
Zeus

Salut @Zeus, il y a plusieurs raisons (si vous posez cela comme une question, je peux donner une réponse plus approfondie). Fondamentalement, même à 16 ou 24 bits, les flux audio ont une bande passante beaucoup plus faible que la vidéo (en général) et sont plus faciles à gérer. Néanmoins, l'audio utilise ces types de préaccentuation et de désaccentuation dans de nombreux cas (en particulier un faible débit binaire). Et en fait, l'audition est également non linéaire (comme toute perception), mais l'audio 8 bits est "en quelque sorte" comme la vidéo 4 bits par canal. N'oubliez pas que la vidéo 8 bits par canal utilise un total de 24 bits par pixel, donc la comparaison avec l'audio 16 bits concerne les pommes / oranges.
Myndex

Merci @Myndex, malheureusement, ce serait hors sujet ici en tant que question. Je suis simplement curieux de savoir pourquoi une telle pré / désaccentuation n'a pas été utilisée pour l'audio depuis le début, étant donné que c'est tout aussi naturel pour l'audition que pour la vue. Soit dit en passant, je voulais dire 16 bits par canal, bien sûr (comme sur CD); l'audio linéaire 8 bits (qui existe formellement) est sans doute plus horrible que la vidéo linéaire 8 bits de votre exemple (qui n'existe même pas en standard). Je comprends que les compromis sont plus faibles, mais les avantages sont élevés: perdre la moitié de la résolution tous les 3 dB semble insensé ...
Zeus

Je pense qu'il y a un site lié à l'échange de pile qui accueillerait les questions audio. Peu importe: chaque bit en audio 16 bits est égal à 6 dB (tension), il y a donc une plage dynamique totale de 96 dB. 6 dB (la tension) est "deux fois" (ou la moitié) aussi élevée que la tension, MAIS les humains ont tendance à percevoir 10 dB comme une quantité littérale "la moitié de la puissance". Pre / De emph est utilisé en audio depuis le début. Les enregistrements avaient la courbe RIAA, la bande magnétique utilisait la courbe NAB, etc. etc. Que voulez-vous dire par perdre la moitié de la résolution tous les 3 dB ???
Myndex

En codage numérique linéaire, la moitié de la tension est la moitié de la plage numérique (par définition), c'est-à-dire une perte de 1 bit de résolution. C'est beaucoup pour quelque chose qui est perçu comme 'un peu plus doux' (-6dB, c'est le chiffre que je voulais dire, pas 3). Si nous voulons capturer au moins ~ 35 dB requis (pour la parole ou l'orchestre), c'est déjà une perte de 6 bits pour les sons les plus doux (et même alors, s'ils sont correctement normalisés). Je suis conscient de l'accentuation `` analogique '' (qui était un peu différent et dépendant de la fréquence), mais je n'ai jamais entendu parler de celui utilisé pour le numérique, d'où mes questions ...
Zeus

3

Il y a beaucoup d'articles confus sur la correction gamma avec de nombreuses références vagues au gamma et à la vision humaine. La raison du gamma est historique et résulte de la courbe de réponse des anciens moniteurs de type CRT (rien à voir avec la vision humaine). Avec les écrans plats modernes, il n'y a pas de raison logique pour le codage gamma et la correction ultérieure, mais c'est devenu la norme de l'industrie.

La relation similaire par coïncidence entre la courbe gamma et la courbe de réponse de la vision humaine donne un certain avantage en aidant à réduire la taille du fichier car la profondeur de bits de l'image peut être réduite sans affecter la qualité d'image perçue .


1

L'OP est à peu près tout correct, sauf que le gamma rend les tons sombres plus brillants, pas atténués. Cela n'existe que dans le dossier, pas dans l'œil. Les données sont toujours décodées pour revenir à leur linéaire d'origine AVANT qu'un œil ne les voie. Toute différence dans l'œil en voyant la scène d'origine et en voyant les données décodées reproduites est simplement une erreur de reproduction indésirable.

Le gamma est fait uniquement pour corriger les pertes sévères des moniteurs CRT. CRT est non linéaire, il montre des tons clairs, mais perd les tons plus sombres. Ainsi, le gamma rend les tons sombres trop brillants, pour ensuite espérer redevenir normaux (linéaires) après les pertes CRT. Cependant, les moniteurs LCD sont linéaires et n'ont donc plus besoin de gamma, mais pour préserver la compatibilité avec toutes les anciennes images RVB du monde, toutes les normes incluent toujours le même gamma. Il est facile pour les moniteurs LCD de simplement le décoder et de le jeter. Et les données fonctionnent toujours sur CRT.

Le gamma n'est AUCUN FAÇON de l'oeil humain. Autre que nous ne souhaitons voir les données originales linéaires corrigées. L'œil a une réponse inverse similaire, qui est purement fortuite, mais l'œil humain ne voit JAMAIS de données gamma. Il est toujours d'abord décodé (soit par des pertes CRT, soit par une puce LCD), et l'œil humain ne voit à nouveau que les données linéaires (espérons-le). Identique à la scène d'origine, aucun gamma n'était nécessaire non plus sur la scène d'origine. L'œil n'a pas besoin d'aide. Allez dehors et regardez un arbre. Il n'y a pas de gamma là-bas. Imaginons-nous vraiment que notre œil ne voit pas bien l'arbre? :) Pensez-y un peu plus. Le cerveau décode la réponse des yeux et le CRT ou l'écran LCD décode l'encodage des données. Ceux qui prétendent que le gamma concerne l'œil ne le savent tout simplement pas, ils répètent simplement les mauvaises choses qu'ils ont entendues. Ce n'est pas difficile à entendre, mais c'est très faux. Ces gars devraient expliquer quand et comment l'œil humain peut même voir le gamma qu'ils s'imaginent nécessaire. Il ne peut pas, il n'a aucune chance.

Le gamma n'est pas d'environ 8 bits. Les données sont encodées, puis décodées, et, espérons-le, identiques, afin que nous puissions voir une reproduction précise de la scène linéaire d'origine. Le gamma a été créé au début de NTSC TV (1940), avant qu'il n'y ait des morceaux, mais nous avions un CRT. :) Le gamma concerne uniquement les pertes CRT. Pur et simple. Et à l'époque du CRT, le gamma était extrêmement nécessaire.

Les données RVB sont normalisées (pour être des valeurs de pourcentage de 0..1) avant d'ajouter le gamma, généralement avec l'exposant 1 / 2,2 (racine carrée approximative). 18% est (0,18 ^ 1 / 2,2) = 0,46, ou 46% sur l'histogramme, ou 117 sur l'échelle 0..255. (L'image des personnes 18% devrait également être 50%. :) 18% est 18%, mais nous voyons près de 50%, uniquement parce que les données de l'histogramme sont encodées en gamma.) Mais notez que 0 pour tout exposant est toujours 0, et 1 pour tout exposant est toujours égal à 1, il n'y a donc pas d'augmentation de la plage dynamique. Et aucun écrêtage dû au gamma non plus, les extrémités ne peuvent pas bouger. Et bien sûr, parce que les données sont décodées avant que quiconque ne les voie. Le tout (encoder, puis décoder) est juste un no-op. Pas de changement dans l'œil, espérons-le. Mais dans les fichiers, les données normalisées (qui sont une FRACTION) pour un exposant deviennent un plus grand nombre, plus lumineuses, sauf qu'aucun œil ne peut jamais les voir là-dedans.

Le gamma est UNIQUEMENT fait pour corriger la réponse des moniteurs CRT.


1

Je crois que nos yeux ont cette courbe de réponse, mais cette réponse à un changement soudain de la quantité de lumière, surtout si elle est devenue plus élevée mais en même temps le cerveau décode cette réponse en rétrécissant notre iris pour maintenir la même (perception linéaire) que nous avoir dans une condition de visualisation stable jusqu'à ce que la transition vers la nouvelle condition de visualisation se fasse en douceur.

La correction gamma provenait essentiellement de la non-linéarité du canon à électrons CRT qui nécessitait plus d'encodage (c'est-à-dire un gamma de 0,45 appliqué) pour envoyer une sortie uniforme (sortie linéaire) parce que les caractéristiques du canon à électrons CRT donnent le signal comme s'il était décodé (c'est-à-dire un gamma 2,2 courbe appliquée). En jours CRT, ils ont codé toutes les données numériques pour maintenir l'uniformité de la visualisation et de l'échange de données sur Internet, donc les formats de fichiers d'image principalement codés avec la courbe gamma de sRGB qui est très similaire à la courbe gamma .45455) et qui ont annulé le problème du pistolet CRT .

Maintenant, après que toutes les données sur Internet ont été codées et en raison de ce comportement linéaire de la technologie LCD (c.-à-d. Signal d'entrée = valeurs de sortie), ils ont constaté qu'il était trop tard pour décoder à nouveau toutes les données numériques après qu'elles soient devenues une norme, de sorte qu'elles sont venues avec un solution logique! et c'est pour imiter à nouveau le défaut CRT et ils ont produit des écrans LCD avec une puce qui décode le signal (c'est-à-dire appliquent une courbe gamma 2.2) tout comme un système hérité :) sinon ils auraient dû décoder toutes les données sur Internet.

Alors ne restez pas coincé dans cette confusion de la non-linéarité des yeux, vous aurez un cercle sans fin de pensées désespérées.

Et voici la relation avec Gamma et nos yeux

Données d'imagerie linéaire produites par les capteurs de caméra Fichiers RAW qui ont par défaut gamma = 1,00 (nature du capteur de caméra), c'est-à-dire (pas de décodage ou d'encodage = pas de correction) lorsque les fichiers bruts "affichés" sur le moniteur sont devenus sombres "seulement vus sombres" et là 10 & 12 bits par canal sont des fichiers volumineux mais malheureusement nous ne bénéficions pas du tout de cette profondeur car nos yeux ne sont pas sensibles aux valeurs lumineuses autant qu'ils sont trop sensibles aux valeurs sombres et peuvent distinguer tout changement subtil dans l'obscurité (et je le ferai être expliqué ci-dessous).

Parce que l'image est "vue sombre" en raison de la nature des moniteurs, les niveaux de luminosité sont plus gaspillés sur les valeurs lumineuses que sur les médiums et les valeurs sombres (parce que le gamma du moniteur a vu les demi-tons abaissés "donc nous aurions beaucoup plus à gagner si l'obscurité était les valeurs avaient la même chance.

Ils ont donc constaté que l'application de la correction gamma (par exemple en encodant des données brutes dans un format comme JPEG avec un gamma .45455 de sRGB) par chance en la convertissant en 8 bits par canal, ce qui signifie une taille de fichier inférieure en plus d'une visualisation ou d'un affichage correct des valeurs de luminosité est (ce qui est en ayant le gamma .45455 gravé sur les pixels) et en ayant à nouveau les tons sombres et moyens) est très cohérent avec la nature de l'œil.

Mon explication est parce que les cellules Rod dans les yeux, nous avons la capacité de vision nocturne et cette nature trop sensible de distinguer les valeurs sombres >> nous avons environ 120 millions de cellules Rod Vs seulement 6 ou millions pour les cellules Cones qui sont sensibles aux couleurs monochromatiques et longueurs d'onde

Je pense que ce n'est pas la courbe de réponse oculaire qui est responsable de cela et n'essayez pas de faire le lien entre le gamma d'Eye et le gamma du moniteur d'une autre manière et veuillez me corriger si je me trompe :). J'ai eu du mal à comprendre les problèmes de gamma afin que tout ce que j'avais à ce sujet.

C'est l'une des meilleures références sur les raisons et les solutions gamma

http://www.w3.org/TR/PNG-GammaAppendix.html


0

Voici mon premier brouillon de réponse - j'entrerai dans les détails avec le temps, mais je veux donner au PO une sorte de réponse. Les commentaires sont plus que bienvenus.

Les informations sur les tubes cathodiques ne s'appliquent plus. Mais il y a une très bonne raison pratique de continuer à utiliser des images codées gamma. L'utilisation de l'encodage gamma donne aux montages comme des courbes un aspect "normal" car l'œil ne répond pas de façon linéaire à la recherche de lumière sur la création de l'espace LAB pour en savoir plus.

Pour un exemple, regardez cette capture d'écran:entrez la description de l'image ici

L'image de gauche est l'original, l'image du milieu une copie en gamma 2.2 et l'image de droite une copie en gamma 1.0. La courbe appliquée à chacune des copies est visible. Compte tenu de la forme de la courbe, la version 2.2 ou 1.0 ressemble-t-elle à ce que vous attendez?


0

En fait, le gamma n'est pas nécessaire de nos jours, surtout lorsque vous travaillez dans des représentations de bits élevées de l'image. Cependant, cela signifie une réécriture complète du logiciel dans bien trop de cas - ou la transition est loin d'être transparente (par exemple, les courbes familières changent complètement la forme, comme vient de le mentionner M. Blankertz).


-1

Les moniteurs LCD sont "linéaires" et n'ont pas besoin de gamma aujourd'hui, mais les moniteurs CRT sont non linéaires et le sont toujours. Et toutes les archives mondiales d'images existantes ont un gamma pour CRT, il est donc beaucoup plus facile de continuer à ajouter du gamma que de changer tous les logiciels et de rendre obsolètes toutes les images existantes.

L'œil humain n'a absolument aucune utilité pour le gamma. L'œil voit bien la scène originale sans gamma. Le gamma est UNIQUEMENT pour corriger les pertes attendues des moniteurs CRT (nous voyons donc une reproduction de la scène originale). Les moniteurs à LED savent juste décoder le gamma et le supprimer, ce n'est pas grave (car l'œil humain s'attend à voir une reproduction fidèle des données de la scène d'origine sans gamma, la reproduction devrait être la même). Ce serait une mauvaise chose de le voir comme des données gamma. Heureusement, l'œil humain n'a aucune chance de voir des données gamma. Les sites qui nous disent que l'œil a besoin de gamma ne connaissent tout simplement pas le gamma.

Cependant, nos histogrammes sont codés gamma, car les données sont codées (pour la raison ci-dessus), juste avant qu'elles ne soient affichées à l'œil humain. Le point médian de nos données encodées n'est pas 50%, mais environ 73% dans les données gamma (les réglages de la caméra comme la balance des blancs et le contraste la décalent un peu plus). Si vous sous-exposez une image exactement d'un arrêt, le point 255 passe à environ 3/4, et NON à 50%. Une carte grise à 18% représente 18% des données de ligne, mais environ 46% des données gamma. Les gens qui supposent à tort qu'il doit être de 50% peuvent même penser à étalonner leur posemètre. :) Mais l'œil ne voit jamais de données gamma, elles sont toujours décodées en premier, dans un sens ou dans l'autre. Nous espérons que l'œil verra toujours une reproduction fidèle de la scène originale.

Mais FWIW, les imprimantes ont également besoin de la plupart des changements gamma. Pas une valeur de 2,2, mais pas trop loin (en raison du gain de points, etc.). Apple observe maintenant les normes du monde 2.2, mais nous savons tous que les premiers ordinateurs Mac utilisaient le gamma 1.8. Ce n'était PAS pour le moniteur, ils ont utilisé les mêmes moniteurs que Windows (les moniteurs sont interchangeables). Mais Apple vendait des imprimantes laser à l'époque, et le gamma 1.8 était pour leur imprimante. Ensuite, le matériel vidéo Mac a ajouté un peu plus pour l'amener au 2.2 dont le CRT avait besoin. Aujourd'hui, les imprimantes doivent atténuer un peu les données 2.2 qu'elles reçoivent, mais elles en ont encore besoin.

Aujourd'hui, la norme est le gamma 2.2, de sorte que toutes les données RVB existantes du monde sont toujours compatibles.


1
La LED est de type rétro-éclairage. La principale raison de la correction gamma n'est PAS l'optimisation pour CRT, même si elle l'a jamais été.
Euri Pinhollow
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.