Qu'est-ce que cela signifie lorsqu'un téléviseur «prend en charge HDR»?


15

Je suis un peu confus quant au fonctionnement du HDR (à la télévision). Selon moi, plusieurs images du même cadre sont utilisées pour créer une image qui montre de meilleurs détails dans les zones de faible luminosité et de forte luminosité du cadre.

Pourquoi le téléviseur doit-il faire quelque chose à ce sujet? Tous les films qui ont HDR ne devraient-ils pas être prétraités de cette manière pour que le film résultant ressemble exactement à ce qu'il devrait être? Ou le HDR à la télévision signifie-t-il vraiment que ces multiples images par image sont disponibles pour le téléviseur et que le téléviseur trouve comment les combiner?


Ne vous excusez pas d'avoir posé une question!
SailorCire

Réponses:


5

La réponse de James Snell est assez gravement incorrecte pour dire que la photo et l'affichage HDR ne sont pas liés. Ils se réfèrent tous deux à la même chose: une profondeur de bits plus élevée. Lorsque vous créez une image HDR, vous utilisez les expositions multiples pour créer une véritable image HDR qui a une profondeur de bits plus élevée qu'un affichage normal peut reproduire. En raison de cette limitation, vous mettez normalement en correspondance l'image HDR réelle dans l'espace à faible plage dynamique d'un affichage normal.

Un affichage HDR permet d'afficher l'image HDR en mode natif sans l'étape de mise en correspondance des tons (en supposant que la profondeur de bits de l'affichage est supérieure ou égale à celle de l'image), tandis que sur un affichage normal, vous ne pouvez vraiment voir qu'un image HDR simulée.

tl; dr HDR = profondeur de bits plus élevée dans les deux contextes. Ce n'est pas du tout un sens différent.


La seule réponse vraiment correcte pour autant que je sache!
Courses de légèreté avec Monica

4
Je suis d'accord pour dire que le HDR fait généralement référence à une profondeur de bits plus élevée, mais de nombreuses images HDR que nous voyons en ligne aujourd'hui sont, comme vous le dites, cartographiées pour simuler la profondeur de bit la plus élevée. En ce qui concerne le téléviseur HDR, il n'est ni prétraité ni généré dans le téléviseur à partir de plusieurs images comme le suggère l'OP, mais le téléviseur nécessite plutôt un signal qui a été enregistré au format HDR.
Octopus

Bienvenue nouvel utilisateur. Pour information, nous avons une boîte de commentaires pour répondre aux réponses. Si vous l'aviez utilisé, vous auriez été renvoyé à photo.stackexchange.com/questions/7623/… où la réponse la plus votée et acceptée est en désaccord avec véhémence avec votre définition et il est assez clair que HDR en tant qu'acronyme photographique concerne le composite / tonemap processus.
James Snell

2
Le problème avec ce que vous dites est que vous confondez la différence entre ce qu'est une image HDR est et la méthode avec la façon dont on est créé. Une image HDR est une image avec une profondeur de bits plus élevée (si vous savez à quoi le terme "plage dynamique" fait référence sur le plan technologique, ce n'est qu'un énoncé de définition). Il est vrai que la méthode la plus courante pour créer une image HDR le fait en composant des expositions LDR, mais le mécanisme n'est pas le produit. Le type de réponse que vous défendez équivaut à se demander ce qu'est une voiture et à dire que c'est la chaîne de montage.
Brandon

3
Brandon, l'OP est celui qui confond le processus de création d'une image HDR et ce que le HDR en tant que concept signifie vraiment. James faisait remarquer à juste titre à l'OP que ce qu'il appelait "HDR" et ce que les fabricants de téléviseurs appellent "HDR" sont deux choses différentes. Il est vrai que ce que l'OP appelait HDR n'est en fait qu'une méthode de création d'une image HDR, mais c'est là que votre clarification doit être. Et une autre note - appeler spécifiquement quelqu'un d'autre à répondre est quelque chose qui ne sera jamais bien pris sur StackExchange.
JPhi1618

15

HDR-TV est (encore) un autre standard de transmission vidéo. La gamme de couleurs est plus large (voir rec 2020 vs rec 709 ), tout comme la résolution. La norme est censée être rétrocompatible, ce qui signifie que vous ne verrez les avantages d'une gamme plus large que si vous avez un téléviseur qui la prend en charge, mais si vous ne le faites pas, vous pourrez toujours voir le flux dans la gamme plus étroite. La norme étendra nécessairement la bande passante requise pour transporter ou transmettre le signal.

HDR-TV (rec 2020) définit également deux résolutions de pixels (largeurs de pixels 4K et 8K) qui sont plus élevées que la résolution HD-TV standard qui est plus proche de 2K pixels de large. La norme en est à ses balbutiements et évoluera probablement au fil des générations avant de mûrir. Les critiques sont généralement impressionnés par la gamme étendue et ont déclaré que le HDR-TV est une amélioration de la qualité beaucoup plus notable que la seule résolution plus élevée.

HDR-TV fournit la gamme de couleurs UHDTV comme indiqué dans l'image ci-jointe. Essentiellement, cela se résume à une profondeur de bits de 8 bits par canal de couleur pour la rec 709 et de 10 ou 12 bits par canal de couleur pour la rec 2020).

entrez la description de l'image ici

MISE À JOUR

En juillet 2016, une autre norme est entrée dans l'industrie (rec 2100). Rec 2020 et rec 2100 présentent tous deux la même large gamme de couleurs (WCG) et ce sont généralement les couleurs supplémentaires qui sont impliquées lorsque le HDR est mentionné. Cependant, cela devient plus déroutant que cela.

Les rec 2020 et 2100 prennent en charge des fréquences d'images de 23,976 à 120 et uniquement des images progressives, jamais entrelacées que vous connaissez peut-être. Il s'agit d'une autre amélioration par rapport à la Rec 709 qui n'était que jusqu'à 60p.

Rec 2020 ne définit que 2 résolutions 4K (3840x2160) et 8K (7680x4320), tandis que rec 2100 définit également 2K (1920x1080), apportant ainsi la gamme de couleurs plus large à ce que nous appelons déjà HD.

Les formats de signal pour rec 2020 incluent RGB et YCbCr, tandis que rec 2100 définit également un troisième format, ICtCp qui offre une représentation améliorée des couleurs. En particulier, la rec 2100 définit deux fonctions de transfert optique qui sont différentes de la rec 2020; quantification perceptuelle (PQ) et Hybrid Log-Gamma (HLG).

Je ne sais pas quand cela s'est produit, mais il semble que rec 2020 est appelé ces jours-ci (au moins sur Wikipedia) comme plage dynamique standard (SDR) et rec 2100 est une plage dynamique élevée (HDR), mais depuis la télévision UHDTV "HDR" les ensembles existaient avant la sortie de la rec 2100, il est possible que votre ensemble "HDR" prenne en charge la rec 2020 et non la rec 2100.

De plus, rec 2020 et rec 2100 peuvent représenter les mêmes couleurs dans le triangle du diagramme de chromaticité CIE 1931 illustré ci-dessus, ce qui est différent est la fonction de transfert optique et la rampe gamma, donc en d'autres termes, la fonction qui convertit le signal en couleur est différent.

Est-ce assez déroutant?


1
Vous devriez probablement préciser que vous voulez dire "résolution couleur" ici et non résolution pixel
hobbs

@hobbs, en fait, c'est bien la résolution en pixels qui fait également partie de l'amélioration. J'ai essayé de clarifier cela dans la réponse.
Octopus

Vous avez raison, je suis probablement trop sévère; cependant, je pense que le reste des informations concernant le rapport de contraste est pertinent.
SailorCire

Comment puis-je voir les couleurs à l'extérieur du triangle beige sur mon téléviseur non UHD?
dberm22

@Octopus Attendez, vraiment? Je suppose que mon moniteur 1920 x 1280 est compatible UHDTV, alors. Je vais devoir Google à quoi cela ressemblerait sur un pire moniteur. Je suppose que c'est pourquoi les couleurs à l'extérieur du triangle noir sont identiques à celles le long de son bord, mais les couleurs le long des bords noirs sont différentes de celles le long du beige.
dberm22

5

C'est l'une de ces nombreuses fois où des termes / acronymes sont appliqués par différents publics à différentes choses.

Vous faites référence à la composition d'images et à la cartographie des tons pour dépasser la plage de capteur standard en tant que HDR. L'industrie électronique l'utilise pour se référer à la spécification HDMI HDR qui permet une plus grande profondeur de bits - à part le libellé derrière l'acronyme, il n'y a aucune relation entre les deux.


5

HDRI vs HDR pour la télévision

La réponse courte est que les termes sont substantiellement différents dans leur sens, à la fois techniquement et subjectivement. Cependant, HDR pour la télévision n'est certainement pas seulement un terme marketing, et je ne peux pas penser à un terme plus approprié pour ce que les téléviseurs compatibles HDR offrent.

Contexte

J'ai commencé à travailler avec l'imagerie à plage dynamique élevée pour la production de longs métrages chez Digital Domain sur la base des travaux de Greg Ward Larson et Paul Debevec en 1999. Je pense que j'ai été le premier à développer un processus d'éclairage CG avec des images HDR en temps réel en utilisant des circonvolutions sphériques prétraitées de cartes d'environnement HDR (garçon qui a la bouche pleine). Si je me souviens bien, Paul a fait un article sur le HDR en temps réel en 2001, donc il y avait probablement un certain nombre de personnes qui faisaient des choses similaires à cette époque. La même année 2001, j'ai fait un panel sur l'avenir de la couleur chez SIGGRAPH avec Roger Deakins à l'origine, mais Allen Daviau a rempli la dernière minute quand Deakins a été tiré sur "A Beautiful Mind". Neil Robinson (alors de ILM) et Beverly Wood de Deluxe Laboratories étaient également sur le panel. J'ai donc été impliqué dans le HDR tel que défini à l'origine du début à la fin, et j'ai eu l'occasion d'apprendre de personnes incroyablement talentueuses.

En ce qui concerne l'utilisation du HDR pour les téléviseurs et les canaux de distribution grand public modernes, j'ai récemment eu l'occasion de travailler avec Jenz Merrill qui est en charge du pipeline HDR pour Amazon Instant Video, qui est la première livraison HDR commerciale, et je '' Je suis également de bons amis avec Thad Beier, directeur du flux de travail de la plate-forme d'imagerie chez Dolby Labs.

Bien que je ne sois pas directement impliqué dans le travail chez Amazon ou Dolby Labs, et juste pour être clair, ce sont des workflows différents, j'ai vu ce qui se fait et je peux dire que les résultats sont spectaculaires.

Un exemple de "Mozart dans la jungle"

J'ai récemment vu une partie du travail effectué par Amazon chez Technicolor, et c'est magnifique. Dans la suite de couleurs, Technicolor avait un moniteur HDR à côté d'un moniteur HD standard, tous deux parfaitement calibrés et tous deux magnifiques. Un plan en particulier de "Mozart dans la jungle" se démarque. La photo est à l'intérieur d'une bibliothèque et sur le moniteur HD de qualité studio parfaitement calibré, c'est magnifique, des couleurs chaudes, une superbe composition, dans l'ensemble une photo fantastique. Cependant, sur le moniteur HDR, c'est à couper le souffle.

Voici pourquoi:

En règle générale, un très bon téléviseur HD peut produire jusqu'à 400 nits de luminosité (un nit équivaut à une candela ou une bougie par mètre carré). Je consulte cette page Web sur un écran MacBook Pro Retina à pleine luminosité et les critiques indiquent qu'il s'agit d'environ 300 nits. On me dit que le moniteur HDR que j'ai vu chez Technicolor était à 1100 nits! Pas de simples pourcentages plus lumineux, mais presque 4 fois plus lumineux que mon MacBook pro, et près de 3 fois plus lumineux qu'un téléviseur HD haut de gamme.

Encore plus dramatique est le fait que cette luminosité supplémentaire ne se fait pas au prix d'une augmentation de la luminosité des zones sombres de l'image. Ceci est correctement appelé rage dynamique et non simplement luminosité ou contraste.

Il est difficile d'internaliser véritablement les différences entre les écrans sans les voir côte à côte, car il ne s'agit pas simplement de montrer plus de latitude d'exposition dans l'image. Vous pouvez le faire sur n'importe quel écran à n'importe quelle luminosité en compressant la plage dynamique dans la plage affichable. Un moniteur HDR affiche un élément sombre du cadre comme des livres sur une étagère dans l'ombre à un rendement lumineux global très similaire à un moniteur HD, et un élément lumineux comme un mur blanc également à un rendement lumineux global très similaire à celui du moniteur HD. Ce qui est différent, c'est que le moniteur HDR peut continuer dans les deux sens.

HDR dans la télévision

Retour au cliché de "Mozart dans la jungle". Entre les moniteurs, les livres sombres se ressemblent et les murs clairs se ressemblent, mais le vitrail en arrière-plan est complètement différent. Sur le moniteur HD, la fenêtre s'épanouit en une surexposition lumineuse ressemblant exactement à ce que vous attendez en filmant dans une pièce sombre avec une fenêtre lumineuse. Le moniteur HDR atteint cependant cette luminosité et plus encore, montrant les belles couleurs de la vitre du support non pas en écrasant la luminosité dans une plage affichable mais en émettant littéralement plus de lumière. Jusqu'à 1100 lentes, les couleurs de cette fenêtre en verre sont explosives.

Alors que j'étais assis dans cette pièce avec les différents affichages montrant la même photo, le vitrail du moniteur HDR était de loin la chose la plus brillante de la pièce et les couleurs incroyables. En plus de cela, les éléments les plus sombres de cette image dans l'ombre des étagères sont parmi les choses les plus sombres de la pièce, mais les couleurs et les détails sont toujours visibles. C'est une chose incroyable à voir.

Le HDR pour la télévision n'est pas une amélioration technique qui ressemble à de la merde comme une fréquence d'images élevée et un lissage de mouvement, ou un jeu de nombres plus ou moins superflu pour des images de taille TV comme 4k contre 2k. Le HDR, en tant que rendement lumineux réellement plus élevé, est une réelle amélioration tant sur le plan créatif que technique.

HDR en imagerie (HDRI)

Alors quelle est la différence? La différence est que la façon dont nous avons utilisé le HDR pour la capture et la manipulation d'images était à l'origine principalement destinée à signifier l'enregistrement de valeurs lumineuses absolues en dehors de tout concept d'affichage. Ce sont les effets secondaires de cette capture qui sont visibles. Par exemple, la possibilité d'utiliser une image comme source de lumière dans un rendu cg car les sources de lumière capturées dans l'image HDR sont enregistrées avec leurs valeurs réelles et en proportion appropriée avec la lumière réfléchie dans l'image comme les murs et le sol.

Généralement, la différence entre le flux lumineux d'une source lumineuse et celui d'une surface réfléchissante comme un mur blanc est de plusieurs ordres de grandeur. Même un téléviseur HDR 1100 nit est incapable de représenter ces plages littéralement dans la plupart des cas, et il est peu probable que vous le souhaitiez. Ce qui est montré est la latitude supplémentaire qui a fait partie de l'image tout au long, y compris et surtout le film, mais qui ne peut pas être affichée dans le résultat final sans avoir d'effets négatifs sur le `` look '' de l'image, tels que la réduction du contraste. Cela nous donne une latitude de post-traitement pour déplacer l'exposition de haut en bas et ajuster la couleur sans trop d'artefacts dans les zones claires ou sombres.

Comme c'est le cas avec la prise de vue des téléviseurs HDR "Mozart dans la jungle" et les nouvelles normes telles que REC 2020 pour la télévision et P3 pour le cinéma numérique offrent plus de ce qui était déjà capturé dans la latitude étendue (épaule et guérison) du film ou capteur utilisé. Contrairement à HDRI, rien de tout cela ne nécessite un processus de capture significativement différent. Cependant, les PDD et les administrateurs voudront certainement commencer à en tenir compte. De la même manière que la HD a eu un impact sur le département maquillage.

Comment évaluer un téléviseur HDR

Les scènes à faible contraste telles que les personnages parlant dans un plan intérieur normalement éclairé devraient apparaître presque identiques même dans une comparaison côte à côte (donner ou prendre une luminosité globale). Des photos comme celle-ci peuvent montrer une amélioration des couleurs sur un téléviseur HDR, mais les différences sont généralement trop subtiles pour être remarquées. Scènes avec sources de lumière visible ou utilisation dramatique de la couleur; extérieurs de jour avec ciel, scènes de boîte de nuit avec néon et éclairage de scène, à peu près n'importe quoi de David Fincher, tous auront un aspect radicalement différent sur les téléviseurs HDR, mais pas parce que le contraste a été augmenté, le contraste devrait ressembler à peu près à celui d'un bon TV HD, les ombres et les lumières vont encore plus loin.

Le contenu existant (REC 709) devrait généralement être le même entre les téléviseurs HD et HDR. S'ils ne le font pas, quelque chose ne va pas dans la configuration de l'un ou des deux. La couleur de la publication doit être refaite pour inclure la gamme supplémentaire, et seulement cela montre la puissance réelle des téléviseurs HDR.


2

* renifler * Je sens une tactique de marketing.

Commençons donc avec le HDR: qu'est-ce que c'est? Une image HDR consiste à augmenter le contraste dynamique d'une image et donc le nombre d'arrêts. Il existe différentes façons de capturer cela, mais vous pouvez rechercher le site pour cela.

Nous avons donc notre image HDR, maintenant que faisons-nous avec elle? Nous avons besoin d'une sorte de support pour le présenter, sinon cela ne nous sert à rien. Les écrans LCD n'ont qu'un certain rapport de contraste et n'afficheront que tant d'arrêts.

Ce que ce téléviseur fait de la publicité, c'est qu'il va au-delà des rapports de contraste des concurrents et permet de voir plus d'arrêts.

C'est un gadget, mais si vous faites beaucoup de diaporamas, cela en vaut la peine.


2
Lumières ambiantes, 3D, incurvées, 4K ... maintenant HDR - Je me demande quel guff inutile ils sortiront l'année prochaine? - J'ai un plasma Full HD vieux de 5 ans et je n'ai pas encore trouvé de raison de le changer !! Je veux toujours une odeur-o-vision.
Digital Lightcraft

Cela pourrait être un nouveau mot à la mode attaché au gadget existant dans les écrans LCD rétro-éclairés (vs ceux éclairés sur les bords) pour faire varier le niveau d'éclairage dans différentes parties de l'écran pour simuler un rapport de contraste plus élevé que l'écran LCD est directement capable d'atteindre.
Dan est en train de jouer par Firelight le

@DigitalLightcraft votre plasma a des noirs plus précis (si je me souviens bien) ... plus de raison de ne pas le changer.
SailorCire

en effet, selon la nouvelle technologie OLED, vous FAITES de la lumière par pixel, plutôt que de le bloquer, comme l'écran LCD, donc techniquement le rapport de contraste est infini :-)
Digital Lightcraft

@DigitalLightcraft J'ai créé ma propre abilight et regarder des films avec elle est fantastique. Je ne paierais jamais un supplément pour un téléviseur avec, mais c'est cool! Les téléviseurs incurvés sont une blague, la 3D me fait juste mal à la tête et 1080p vs 4K est imperceptible à l'œil humain à n'importe quelle taille d'écran et distance de visualisation raisonnables. Mais Ambilight est génial!
dberm22
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.