Pourquoi les capteurs d'appareils photo numériques ne peuvent-ils pas exposer chaque photosite individuellement?


14

Pourquoi les capteurs de caméra ne peuvent-ils pas fonctionner de la même manière que l'œil humain? Ce que je veux dire, c'est pourquoi une certaine partie de l'image doit être sur / sous-exposée si nous compensons les zones sombres et claires respectivement lorsque nous prenons une photo et décidons des paramètres d'ouverture et de vitesse d'obturation.

Je comprends que la lumière entrant dépend de l'ouverture et de la vitesse d'obturation, mais comme les reflex numériques sont numériques, il ne peut pas y avoir de technologie qui permettrait à chaque cellule de capteur d'utiliser son propre compteur et, par conséquent, ils ne seraient pas tous soumis à la même quantité de lumière mais en fonction de la mesure, un CPU de la caméra éteindrait certaines cellules pour ne pas les surexposer.

J'espère que je ne dis pas de bêtises. Cela me semble être une idée plausible.


On dirait que vous demandez pourquoi un capteur ne peut pas avoir une plage dynamique illimitée? Ou peut-être qu'un autre chemin serait "comment fonctionne un capteur de caméra". Question intéressante malgré tout.
dpollitt

Oui, vous diriez que la question porte sur une plage dynamique illimitée, mais il me semble en fait assez bizarre que, puisque chaque cellule de capteur a la capacité "d'enregistrer" ou de dire que la pâte capture n'importe quelle quantité de lumière (sans tenir compte de l'écrêtage du blanc / noir) , pourquoi ne peut-il pas le faire sur la base d'une seule cellule mais capturer à la place la même quantité sur l'ensemble du capteur? Peut-être que cela demanderait un peu plus de puissance CPU et ainsi de suite, mais je suis intéressé de savoir si cela a même été envisagé par n'importe quel fabricant de reflex numérique ...

2
Trop de câblage est ma conjecture . Vous auriez besoin de circuits supplémentaires non triviaux par photosite. Les appareils les plus proches à ce jour sont ceux qui lisent la moitié des pixels à mi-chemin de l'exposition.
Itai

Avez-vous un lien vers l'article? Donc, la seule réponse à ma question initiale est qu'elle est, en fait, trop compliquée à ce stade de l'histoire de la technologie DSLR?

1
C'est le genre de question qui sort un peu des sentiers battus. Il est très judicieux de le demander. Je suis sûr qu'un jour les caméras fonctionneront de manière très similaire à votre suggestion. ... Bien que personnellement, je trouve que les limites techniques nourrissent l'artistique.
AJ Finch

Réponses:


19

Qui décide quels pixels obtiennent le gain? Une grande partie de ce qui se passe dans le système visuel humain se produit dans le cortex, pas dans l'œil, et dépend de ce que nous pensons qu'il est important de voir basé sur une combinaison de la décision intellectuelle et de la pulsion instinctive (quelque peu dérogeable) pour l'auto-préservation . S'il est vrai dans un sens que nous voyons ce qui est là, il est également vrai dans un autre sens que nous voyons ce que nous voulons (ou devons) voir.

Ce serait presquetrivial pour créer un capteur de densité de pixels relativement faible avec de grands photosites qui permettent une énorme plage dynamique et (en supposant une technologie de type CCD, puisque la technologie actuelle du capteur CMOS ne peut pas fonctionner de cette façon) un obturateur électronique par pixel en plus de l'obturateur mécanique. Alors qu'est-ce que cela vous apporterait? Une image plate avec beaucoup de profondeur de bits et un contraste local très faible (si la profondeur de bits entière est convertie telle quelle pour l'affichage ou l'impression) avec un certain nombre de pixels qui sont presque, mais pas tout à fait, écrêtés par la saturation du capteur ( bien qu'ils soient, en fait, écrêtés par l'action limitante de l'obturateur électronique juste avant le point de saturation). Supposons cependant, à des fins d'argument, que ce capteur et son ordinateur associé pourraient enregistrer les données d'écrêtage (la raison pour laquelle il a cessé d'enregistrer à ce sensel, ce qui pourrait être aussi simple que d'enregistrer la durée d'exposition réelle sur ce site). Cela permettrait à l'électronique de la caméra de reconstruire ce que les chiffres auraient été si le photosite avait pu rester dans le jeu jusqu'au coup de sifflet final. Nous avons donc maintenant une image encore plus plate avec une plus grande profondeur de bits. Et où tracez-vous la ligne? 32 bits? 64?

Maintenant vient la partie difficile - transformer ces données d'image à plage dynamique élevée en une photographie convaincante. L'approche la plus simple consiste à prendre les huit bits (ou quelle que soit la profondeur de bits de sortie) qui représentent l'image mesurée principale et à jeter le reste. Il ne serait probablement pas beaucoup plus difficile d'adapter les données à une courbe en S, en compressant les ombres et / ou les reflets extrêmes - ce qui est plus ou moins ce que font déjà les paramètres de plage dynamique étendue sur les nouveaux appareils photo. Mais il n'y a que peu de bits de sortie disponibles par pixel, et la plupart des valeurs de surbrillance étendues vont arrondir au blanc (ou au moins un mélange de 254 et 255). Vous avez donc très peu gagné en compliquant considérablement le système.

Mais il reste une option ouverte - la cartographie sélective des zones. Pourquoi ne pas mettre le ciel, disons, ou simplement les nuages ​​dans ce ciel, en valeur afin qu'il puisse conserver les détails, tout en préservant le contraste souhaité au premier plan? C'est là que réside le problème difficile. Qu'est-ce qui est important? La caméra doit-elle décider pour vous? Si la caméra décide, alors nous avons une grande avancée en vision industrielle et en intelligence artificielle pour nous déplacer en premier. Sinon, voulez-vous vraiment prendre ce niveau de décision post-capture pour chaque photo que vous prenez? Oui, je sais qu'il y aura des photo-techno-weinies qui veulent vraiment être aussi actifs, mais pouvons-nous accepter qu'il s'agit d'une condition pathologique, et que les professionnels intéressés par le délai de traitement et la grande majorité des consommateurs ne sont pas pas comme ça?

Vous avez donc besoin d'un nouveau capteur, d'une électronique beaucoup plus compliquée autour du capteur, d'un énorme fichier image pour les données brutes projetées (ce qui nécessite des cartes plus grandes et des temps d'écriture plus longs / des fréquences d'images plus lentes), le tout pour collecter les données qui vont être le plus jetées du temps afin que vous puissiez parfois prendre des images HDR à un coup qui nécessitent beaucoup d'intervention humaine en post (ou un énorme bond en MV / AI). Vous pourriez probablement en vendre quelques-uns, mais je m'attendrais à ce que le marché ressemble beaucoup plus au marché de format moyen qu'au marché 35 mm / APS-C existant. Autrement dit, vous vendriez à un groupe sélectionné de photographes bien nantis qui ont réellement besoin des capacités pour des raisons professionnelles ou pour réaliser leur vision des beaux-arts, et quelques-uns qui obtiennent juste un coup de pied assez gros du post-traitement pour payer la taxe sur la technologie.


1
Il s'agit d'une excellente analyse (et je vote en tant que telle). Mais au final, je trouve les conclusions peu convaincantes. Après tout, il ne serait pas difficile de créer une matrice «stupide» de sensels, dont certains sont masqués par, disons, un filtre ND à six arrêts. (Utilisez un des G dans le filtre Bayer pour cela, par exemple.) Aucun changement significatif dans l'électronique ne serait nécessaire; rien sur les caméras, les objectifs, etc., ne changerait; mais en échange d'une minuscule perte de sensibilité, vous obtiendrez la possibilité de distinguer les gradations (grossières) dans les pixels éclatés. C'est proche de ce que le PO demande.
whuber

2
Une meilleure approche simple existe déjà dans le capteur EXR de Fuji. Il a des sensels de différentes tailles; un petit capteur et un grand sont appariés à chaque site de pixels source sur le capteur. Bien que cela puisse offrir une plage de capture plus large, il est toujours limité dans ce qu'il peut faire - vous pouvez toujours faire ressortir les hautes lumières si vous voulez obtenir toutes les ombres. (Et l'implémentation actuelle de Fuji utilise trop de pixels sur un capteur trop petit.) Supposons une implémentation parfaite avec plusieurs tailles de capteur - qui pose toujours le problème de traitement - et qui, pas la capture, est le vrai problème.

Merci pour la référence EXR. Cela montre que ma suggestion n'est pas seulement plausible, mais réelle. Le logiciel HDR n'a-t-il pas résolu le problème de traitement? Si vous avez réussi à capturer une large plage dynamique avec un capteur intégré, alors vous disposez déjà d'une pile HDR parfaitement enregistrée. Les limites de cette technologie seront certainement les limites du HDR.
whuber

Encore une fois, un traitement direct donnera une image merdique si la source est HDR. La limitation ne réside pas dans la capture, mais dans le traitement - combien d'images halo devez-vous voir avant de conclure que le traitement HDR n'est pas simple? Les gens bien intentionnés la gâchent royalement et savent ce qu'ils veulent que l'image "dise". Ensuite, les problèmes de stockage et de vitesse d'écriture sont toujours là aussi, et il existe un autre compromis d'utilisation. Un appareil photo peut être tout pour tout le monde, mais à quel prix en termes de prix et d'ergonomie? La capture 14 bits et la compression DR sont ici maintenant; 16 bits ne sera pas loin derrière.

1
... Et les deux obtiennent toujours des reflets. Vous devez vous étendre considérablement plus loin pour éviter complètement le problème, et à un moment donné, l'aspect pratique s'effondre, au moins au niveau du marché de masse. Les tireurs en studio n'en ont pas besoin; la plupart des consommateurs n'en ont pas besoin. Je fais surtout des portraits environnementaux, et je ne peux pas penser à trop de fois où j'en ai eu besoin (la surexposition a fait beaucoup de mes images). Les frais généraux n'en valent tout simplement pas la peine pour la plupart des gens, donc cela va créer un produit de niche coûteux.

3

Il y a une chose que seules quelques personnes mentionnent, et c'est qu'une scène ne serait pas la même si différentes zones étaient exposées différemment à d'autres zones. Une scène ressemble à ça parce qu'il y a des variations. Oui, cela pourrait être un moyen d'enregistrer les hautes lumières et d'augmenter les ombres, mais au final, ce que vous voulez vraiment, c'est une plus grande plage dynamique qui puisse capturer la plage dynamique de la scène en utilisant un paramètre d'exposition.

Nos yeux sont excellents pour nous fournir une plage dynamique beaucoup plus grande que la technologie actuelle des caméras grand public. Je peux regarder rapidement autour de moi et percevoir en même temps des détails précis dans les zones ombragées et les zones ensoleillées.

L'un des moyens utilisés par les fabricants d'appareils photo pour contourner ce problème consiste à utiliser à la fois des pixels de sensibilité élevée et faible dans le même capteur, puis à combiner le résultat par pixel. Les nouveaux appareils photo numériques de cinéma RED ont une matrice de pixels de capteur de sensibilité normale et faible appelée HDRx. Les petits pixels du capteur à faible sensibilité sont combinés dans les hautes lumières des pixels lumineux pour augmenter la plage dynamique.


Vous avez raison, il en résulterait une photo fade mais évidemment elle devrait avoir quelques limitations. Je pense que laisser la caméra décider des zones plus claires et plus sombres serait trop. Je ne pensais pas bien ...

3

Tout d'abord, la plage dynamique de l'œil humain n'est pas si grande. Il semble que ce soit mieux que nos caméras haut de gamme actuelles, car notre cerveau fusionne constamment des "instantanés" pris en utilisant différents paramètres d'exposition. Nos yeux ne peuvent pas enregistrer simultanément des objets extrêmement brillants et extrêmement sombres (même si le cerveau le peut). Véritable merveille du traitement d'image, mais seulement un dispositif optique / d'imagerie médiocre.

Il existe plusieurs propositions / prototypes montrant comment la plage dynamique des capteurs d'image pourrait être considérablement améliorée:

  • Caméra Modulo par MIT

    chaque photodiode réinitialise son état lorsqu'elle atteint la charge maximale et se souvient du nombre de fois où cela s'est produit

  • Capteur d'image Quanta par Eric Fossum

    utilise des pixels de comptage de photons beaucoup plus petits et plus rapides au lieu de conteneurs de charge "analogiques" + convertisseurs A / N


2

Il vous manque un peu de physique de base ici. Le problème principal est que les scènes réelles ont des rapports de contraste importants. Nos yeux ont évolué pour faire face à cela en percevant les niveaux de lumière de manière logarithmique plutôt que linéaire. Malheureusement, la technologie actuelle des capteurs mesure intrinsèquement la lumière de façon linéaire. Ou, plus précisément, le bruit est fixé sur une échelle de lumière linéaire.

Avec la technologie actuelle, la limite de contraste maximale est essentiellement fonction du niveau de bruit. Par souci d'argument, utilisons une échelle de lumière de 0 à 1000, ce qui signifie qu'un capteur peut vous indiquer le niveau de lumière de 0 à 1000. Quel est le rapport le plus élevé qu'il peut donc mesurer? Cela dépend du niveau de bruit. Le niveau de bruit est essentiellement ce que vous obtenez au lieu du vrai noir, qui serait 0 dans cet exemple. En gros, si le niveau de bruit est de 2, vous obtenez alors un rapport de luminosité d'environ 1000: 2 = 500: 1. Tant que la scène ne dépasse pas cela (presque tous le feraient, en réalité, 500: 1 n'est pas tant que ça), vous pouvez faire le mappage logarithmique que vous souhaitez plus tard.

Ainsi, la stratégie actuelle, étant donné que les capteurs de courant sont intrinsèquement linéaires, consiste à essayer d'augmenter le rapport signal / bruit et à fournir suffisamment de bits pour que le bruit de quantification soit inférieur au bruit aléatoire inhérent. Plus le capteur est silencieux, plus les scènes à plage dynamique étendue peuvent être capturées sans écraser les hautes lumières ni brouiller les ombres.

Il existe une technologie de capteur totalement différente qui mesure intrinsèquement le journal de la luminosité. Parfois, ils sont appelés capteurs "CMOS", car ils ressemblent beaucoup à des RAM dynamiques CMOS avec le couvercle enlevé (je simplifie trop, mais le premier test en laboratoire a été fait de cette façon). Vous obtenez une tension proportionnelle au logarithme de la lumière, mais celles-ci ont actuellement des rapports signal / bruit beaucoup plus faibles. Mitsubishi a été le premier à commercialiser ces capteurs, mais ils ne sont pas encore assez bons pour les caméras haut de gamme.

Il y aura sans aucun doute des progrès sur plusieurs fronts, et je suis sûr que nous verrons des progrès constants pour les années à venir. Cependant, il y a de bonnes raisons pour lesquelles les choses sont telles qu'elles sont aujourd'hui, pas seulement parce que personne ne peut imaginer quelque chose de mieux. Si quelqu'un avait une technologie qui pouvait mesurer avec précision une large plage dynamique et à un prix que les gens étaient prêts à payer, il s'enrichirait.


1

Je pense que c'est trop compliqué.

Il y aurait essentiellement deux approches possibles; Soit chaque photocapteur peut suivre l'heure et s'éteindre, soit le processeur peut suivre les données des photocapteurs et les désactiver.

Pour la première approche, cela signifierait que chaque photocapteur aurait besoin d'un signal d'horloge et d'un compteur, afin de pouvoir suivre le temps qu'il a fallu pour s'éteindre. C'est beaucoup plus de circuits pour s'adapter à la puce, et beaucoup plus d'électricité nécessaire pour le faire fonctionner, ce qui augmente le bruit du signal. Probablement tellement que l'augmentation de la plage dynamique serait inutile.

Pour la deuxième approche, le CPU devrait lire toutes les données du capteur environ une fois par 1/10000 seconde. C'est environ 1000 fois plus rapide que la technologie actuelle ne peut le faire, c'est donc des décennies dans le futur, si possible.

En outre, il existe d'autres complications avec une telle solution, comme le fait que chaque pixel aurait un temps d'exposition différent. Vous obtiendriez des objets assez étranges si vous photographiez tout ce qui bouge.


1
Je ne suis pas convaincu que le "flou de mouvement sélectif" soit un si gros problème. Lors de la prise de vue d'un sujet en mouvement, les pixels qui seraient exposés le plus longtemps seraient ceux qui seraient restés dans l'obscurité tout le temps. Ceux-ci se trouveraient à l'intérieur de zones généralement uniformément sombres, où certains flous ne seraient pas très visibles. Les pixels sur les bords entre la zone sombre et la zone claire, dans le cas où le sujet bougeait, obtiendraient une exposition plus élevée et se fermeraient plus rapidement, entraînant moins de flou.
Jan Hlavacek

0

S'il est vrai que les reflex numériques sont numériques, les objectifs ne le sont pas. Tous les capteurs cellulaires seront soumis à la même ouverture, quel que soit le niveau d'intelligence du boîtier du reflex numérique, car l'ouverture est réglée sur l'objectif. Je pense donc que la variation de l'ouverture par cellule de capteur est terminée, au moins avec la technologie d'objectif actuelle.

En ce qui concerne la vitesse d'obturation, cela est contrôlé par l'appareil photo, mais si nous imaginons un appareil photo qui peut faire varier la vitesse d'obturation sur différentes parties de l'image pour contrôler la sur / sous-exposition, vous vous retrouverez avec un flou de mouvement inégal. Les parties les plus sombres de la scène devront être exposées plus longtemps et seront plus floues que les parties plus lumineuses. Je pense qu'une solution qui change la vitesse d'obturation ne fonctionnera pas pour cette raison.

Donc, la seule chose qui reste est ISO. Faire varier l'ISO signifierait différents niveaux de bruit dans différentes parties de l'image. Cela ne sonne pas trop mal, étant donné que vous obtiendrez une plage dynamique beaucoup plus élevée en retour. Je ne sais pas grand-chose sur le fonctionnement des capteurs, mais j'imagine que le réglage ISO est implémenté dans les capteurs comme une sorte de "réglage" vers un sous-ensemble spécifique de l'échelle de luminosité. Il me semble qu'il serait extrêmement coûteux d'avoir une mesure indépendante et un contrôle ISO dans chaque cellule de capteur, mais peut-être que l'image peut être divisée en zones et chaque zone mesurée séparément. Ensuite, l'appareil photo devra avoir une sorte d'algorithme pour mélanger les zones exposées différemment, sorte de ce que "enblend" fait quand il assemble un panorama où chaque image a une exposition différente. Cela me semble faisable.

Une autre option serait d'avoir une caméra avec plusieurs capteurs, chacun configuré pour une ISO différente. Dans la technologie vidéo, il y a 3 caméras CCD, où chaque CCD enregistre l'une des rouges, vertes et bleues. Je ne vois pas pourquoi il ne pourrait pas y avoir un concept similaire pour les reflex numériques, où plusieurs capteurs prennent la photo à différents niveaux ISO, produisant une image HDR.


0

Je ne trouve pas les informations pour le moment, mais je me souviens avoir lu la description d'une technologie similaire. L'idée était à peu près la suivante: la seule chose à prendre en compte est les reflets exagérés. Si vous pouvez les éviter, vous pouvez prendre soin des zones sombres en augmentant l'exposition à l'ensemble de l'image. Ainsi, afin d'éviter les reflets exagérés, chaque capteur gardera une trace de sa lumière accumulée, et si cela se rapproche du maximum, le capteur s'éteindra. Cela en soi n'améliorerait rien, cela aggraverait en fait les choses, au lieu d'avoir peu de reflets blancs vifs exagérés, on se retrouverait avec des reflets encore plus sombres. Ainsi, au lieu de simplement fermer, la cellule fermerait également les cellules dans certains quartiers, ce qui préserverait certains détails dans les zones lumineuses.

Comme je l'ai écrit, je ne trouve pas le texte maintenant, mais il est en quelque sorte dans mon esprit associé aux appareils photo numériques HP.


Si vous le trouvez, veuillez créer un lien vers l'article. Une idée intéressante en effet.

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.