Qui décide quels pixels obtiennent le gain? Une grande partie de ce qui se passe dans le système visuel humain se produit dans le cortex, pas dans l'œil, et dépend de ce que nous pensons qu'il est important de voir basé sur une combinaison de la décision intellectuelle et de la pulsion instinctive (quelque peu dérogeable) pour l'auto-préservation . S'il est vrai dans un sens que nous voyons ce qui est là, il est également vrai dans un autre sens que nous voyons ce que nous voulons (ou devons) voir.
Ce serait presquetrivial pour créer un capteur de densité de pixels relativement faible avec de grands photosites qui permettent une énorme plage dynamique et (en supposant une technologie de type CCD, puisque la technologie actuelle du capteur CMOS ne peut pas fonctionner de cette façon) un obturateur électronique par pixel en plus de l'obturateur mécanique. Alors qu'est-ce que cela vous apporterait? Une image plate avec beaucoup de profondeur de bits et un contraste local très faible (si la profondeur de bits entière est convertie telle quelle pour l'affichage ou l'impression) avec un certain nombre de pixels qui sont presque, mais pas tout à fait, écrêtés par la saturation du capteur ( bien qu'ils soient, en fait, écrêtés par l'action limitante de l'obturateur électronique juste avant le point de saturation). Supposons cependant, à des fins d'argument, que ce capteur et son ordinateur associé pourraient enregistrer les données d'écrêtage (la raison pour laquelle il a cessé d'enregistrer à ce sensel, ce qui pourrait être aussi simple que d'enregistrer la durée d'exposition réelle sur ce site). Cela permettrait à l'électronique de la caméra de reconstruire ce que les chiffres auraient été si le photosite avait pu rester dans le jeu jusqu'au coup de sifflet final. Nous avons donc maintenant une image encore plus plate avec une plus grande profondeur de bits. Et où tracez-vous la ligne? 32 bits? 64?
Maintenant vient la partie difficile - transformer ces données d'image à plage dynamique élevée en une photographie convaincante. L'approche la plus simple consiste à prendre les huit bits (ou quelle que soit la profondeur de bits de sortie) qui représentent l'image mesurée principale et à jeter le reste. Il ne serait probablement pas beaucoup plus difficile d'adapter les données à une courbe en S, en compressant les ombres et / ou les reflets extrêmes - ce qui est plus ou moins ce que font déjà les paramètres de plage dynamique étendue sur les nouveaux appareils photo. Mais il n'y a que peu de bits de sortie disponibles par pixel, et la plupart des valeurs de surbrillance étendues vont arrondir au blanc (ou au moins un mélange de 254 et 255). Vous avez donc très peu gagné en compliquant considérablement le système.
Mais il reste une option ouverte - la cartographie sélective des zones. Pourquoi ne pas mettre le ciel, disons, ou simplement les nuages dans ce ciel, en valeur afin qu'il puisse conserver les détails, tout en préservant le contraste souhaité au premier plan? C'est là que réside le problème difficile. Qu'est-ce qui est important? La caméra doit-elle décider pour vous? Si la caméra décide, alors nous avons une grande avancée en vision industrielle et en intelligence artificielle pour nous déplacer en premier. Sinon, voulez-vous vraiment prendre ce niveau de décision post-capture pour chaque photo que vous prenez? Oui, je sais qu'il y aura des photo-techno-weinies qui veulent vraiment être aussi actifs, mais pouvons-nous accepter qu'il s'agit d'une condition pathologique, et que les professionnels intéressés par le délai de traitement et la grande majorité des consommateurs ne sont pas pas comme ça?
Vous avez donc besoin d'un nouveau capteur, d'une électronique beaucoup plus compliquée autour du capteur, d'un énorme fichier image pour les données brutes projetées (ce qui nécessite des cartes plus grandes et des temps d'écriture plus longs / des fréquences d'images plus lentes), le tout pour collecter les données qui vont être le plus jetées du temps afin que vous puissiez parfois prendre des images HDR à un coup qui nécessitent beaucoup d'intervention humaine en post (ou un énorme bond en MV / AI). Vous pourriez probablement en vendre quelques-uns, mais je m'attendrais à ce que le marché ressemble beaucoup plus au marché de format moyen qu'au marché 35 mm / APS-C existant. Autrement dit, vous vendriez à un groupe sélectionné de photographes bien nantis qui ont réellement besoin des capacités pour des raisons professionnelles ou pour réaliser leur vision des beaux-arts, et quelques-uns qui obtiennent juste un coup de pied assez gros du post-traitement pour payer la taxe sur la technologie.