Pourquoi les pixels effectifs sont-ils supérieurs à la résolution réelle?


16

Cette page compare les appareils photo Canon EOS 550D et Canon EOS 500D et mentionne

18,7 millions de pixels effectifs

pour 550D. Cependant, la meilleure résolution possible avec cet appareil photo est

5184 * 3456 = 17915904 ~ 17.9 million pixels

Que sont les pixels effectifs et pourquoi ce nombre est-il supérieur à 17,9 millions dans ce cas?


1
Sachez également que «résolution» a deux significations. Dans les ordinateurs, nous l'utilisons pour faire référence aux dimensions en pixels d'un écran ou d'une image. Et dans un dessin ou une image générée par ordinateur, cela correspond généralement à la "vraie" résolution - la quantité de détails réellement résolus dans l'image. Mais sur une photo, ce n'est pas forcément le cas.
mattdm

1
Ce n'est pas ce qui se passe ici - juste une source supplémentaire de confusion.
mattdm

Réponses:


9

Une partie de ce que nous voyons ici est (je suis raisonnablement certain) rien de plus qu'une simple faute de frappe (ou quelque chose sur cet ordre) de la part de DPReview.com. Selon Canon , [PDF, page 225] le nombre de puits sur le capteur est "environ 18,00 mégapixels".

Ceux-ci sont ensuite réduits à environ 17,9 mégapixels lorsque les entrées du motif Bayer sont transformées en ce que la plupart d'entre nous considéreraient comme des pixels. La différence est assez simple: chaque puits du capteur ne détecte qu'une seule couleur de lumière, mais un pixel comme vous vous y attendez normalement dans la sortie (par exemple, un fichier JPEG ou TIFF) a trois couleurs pour chaque pixel. À première vue, il pourrait sembler que cela signifierait qu'un fichier ne compterait qu'environ un tiers d'autant de pixels qu'il y a de puits de capteur en entrée. De toute évidence, ce n'est pas le cas. Voici (une vue simplifiée de) comment les choses fonctionnent:

modèle Bayer simplifié

Chaque lettre représente un puits sur le capteur. Chaque case représente un pixel tricolore tel qu'il ira dans le fichier de sortie.

Dans la partie "intérieure" du capteur, chaque pixel de sortie dépend de l'entrée de quatre puits de capteur, mais chaque puits de capteur est utilisé comme entrée pour quatre pixels de sortie différents, de sorte que le nombre d'entrées et le nombre de sorties restent les mêmes.

Sur les bords, cependant, nous avons des puits de capteur qui ne contribuent qu'à deux pixels au lieu de quatre. Aux coins, chaque capteur ne contribue qu'à un pixel de sortie.

Cela signifie que le nombre total de pixels de sortie est inférieur au nombre de puits de capteur. Plus précisément, le résultat est plus petit d'une ligne et d'une colonne par rapport à l'entrée (par exemple, dans l'exemple, nous avons un capteur 8x3, mais des pixels de sortie 7x2).


+1 spécialement pour le diagramme. Mais je suis toujours perplexe, car cela expliquerait l'absence de 2 (5184-1 + 3456-1) = environ 17K pixels, ce qui serait juste perdu dans l'arrondi dans le calcul 18.0 - 17.9 = 0.1M pixels. Il semblerait qu'au moins trois fois plus de pixels doivent être supprimés de la limite (car tout ce qui est inférieur à 50K devrait être arrondi à 0,0M). Peut-être que le dématriçage utilise un quartier plus grand que les 2 x 2 illustrés ici: peut-être qu'il utilise autour d'un quartier 7 x 7?
2011

1
@whuber: Offhand, je ne suis pas sûr de pouvoir directement expliquer le reste. Il est certainement possible d'utiliser plus de capteurs pour produire un seul pixel de sortie, mais je n'ai aucun moyen réel de savoir que c'est ce que fait Canon dans ce cas. Un fichier brut de l'appareil photo donnerait le nombre exact de puits de capteur, mais ne dirait toujours pas exactement comment Canon passe de l'entrée X à la sortie Y.
Jerry Coffin

3
Dans de bons algorithmes de dématriçage (par exemple, orientés vers l'homogénéité adaptative), chaque capteur contribue bien à plus de quatre pixels de sortie, c'est donc plus d'une ligne ou colonne qui se perd. Il est assez facile de saisir la sortie non mosaïque de dcraw et de comparer les dimensions de l'image avec la sortie du DPP de Canon pour obtenir une réponse définitive, je vais essayer quand j'en aurai le temps.
Matt Grum

@Matt Grum: Rétrospectivement, mon commentaire précédent est plutôt mal formulé. Ce que j'essayais de comprendre, c'est qu'il existe plusieurs algorithmes qui pourraient (et vont) perdre / éliminer ~ 3 lignes / colonnes de pixels, mais le nombre de pixels seul ne vous dira pas lequel de ceux qu'ils utilisent. Cependant, l'utilisation d'un algorithme plus sophistiqué qui utilise plus de capteurs par pixel de sortie est pratiquement une donnée.
Jerry Coffin

5

Je ne sais pas pourquoi le terme "efficace" est utilisé par DPReview, mais il y a plusieurs raisons à l'écart entre le nombre de photosites (pixels) sur la puce et la taille en pixels des images résultantes.

Certains capteurs de caméra ont une bande de pixels masqués de chaque côté. Ces pixels sont identiques à la majeure partie des pixels du capteur, sauf qu'ils ne reçoivent pas de lumière. Ils sont utilisés pour détecter les interférences et les soustraire du signal produit par les pixels photosensibles.

Deuxièmement, les [bons] algorithmes de dématriçage utilisent de nombreuses "opérations de voisinage", ce qui signifie que la valeur d'un pixel dépend quelque peu de la valeur de ses pixels voisins. Les pixels sur le bord extrême de l'image n'ont pas de voisins, donc contribuez à d'autres pixels mais n'ajoutez pas aux dimensions de l'image.

Il est également possible que l'appareil photo recadre le capteur pour d'autres raisons (par exemple, le cercle d'image de l'objectif ne couvre pas tout à fait le capteur), bien que je doute que ce soit le cas avec le 550D.


Les pixels de bordure sont-ils utilisés pour supprimer les interférences ou simplement pour définir le point noir?
mattdm

1
Les deux, je suppose, s'il n'y avait pas d'interférence (y compris la réponse thermique), le point noir serait de 0
Matt Grum

Description de DPReview . Il me semble que cela va et vient entre deux concepts opposés, et je ne le vois pas définir le terme, sauf implicitement. Je pense que votre réponse aide un peu, mais me laisse encore me demander pourquoi les pixels "efficaces" seraient plus que de vrais sites de photos, bien que la page dpreview donne certaines possibilités. Efficace: utilisé pour effectuer des données d'image? Ou la date de l'image finalement si affectée? (note: effet verbe avec un e: création d'existence.) Je me demande encore ce qu'ils signifient.
lindes

5

Il y a deux raisons pour lesquelles les pixels effectifs sont inférieurs au nombre réel de pixels du capteur (éléments sensibles ou capteurs). Premièrement, les capteurs Bayer sont composés de "pixels" qui détectent une seule couleur de lumière. Habituellement, il existe des sensels rouges, verts et bleus, organisés en paires de rangées sous la forme de:

RGRGRGRG
GBGBGBGB

Un seul "pixel" que la plupart d'entre nous connaissent, le pixel de style RVB d'un écran d'ordinateur, est généré à partir d'un capteur Bayer en combinant quatre sensels, un quatuor RGBG:

          R G 
(sensor)       -->  RGB (computer)
          G B

Puisqu'une grille 2x2 de quatre capteurs RGBG est utilisée pour générer un seul pixel d'ordinateur RGB, il n'y a pas toujours suffisamment de pixels le long du bord d'un capteur pour créer un pixel complet. Une bordure "supplémentaire" de pixels est généralement présente sur les capteurs Bayer pour s'adapter à cela. Une bordure supplémentaire de pixels peut également être présente simplement pour compenser la conception complète d'un capteur, servir de pixels d'étalonnage et accueillir des composants extra-capteurs qui incluent généralement des filtres IR et UV, des filtres anti-aliasing, etc. qui peuvent obstruer un pleine quantité de lumière atteignant la périphérie extérieure du capteur.

Enfin, les capteurs Bayer doivent être "dématriçés" pour produire une image RVB normale de pixels d'ordinateur. Il existe différentes manières de démostrer un capteur Bayer, mais la plupart des algorithmes essaient de maximiser la quantité de pixels RVB qui peuvent être extraits en mélangeant les pixels RVB de chaque ensemble de chevauchements possibles de quatuors RGBG 2x2:

Bayer Demosaicing

Pour un capteur avec un total de 36 capteurs monochromes, un grand total de 24 pixels RVB peut être extrait. Remarquez la nature chevauchante de l'algorithme de dématriçage en regardant le GIF animé ci-dessus. Notez également que lors des troisième et quatrième passes, les rangées supérieure et inférieure n'ont pas été utilisées. Cela montre comment les pixels de bordure d'un capteur ne peuvent pas toujours être utilisés lors du dématriçage d'un réseau de capteurs Bayer.

Quant à la page DPReview, je pense qu'ils peuvent avoir des informations erronées. Je pense que le nombre total de capteurs (pixels) sur le capteur Canon 550D Bayer est de 18,0mp, tandis que les pixels effectifs, ou le nombre de pixels d'ordinateur RVB qui peuvent être générés à partir de cette base 18mp, sont 5184x3456 ou 17915904 (17,9mp). La différence se résumerait à ces pixels de bordure qui ne peuvent pas tout à fait constituer un quatuor complet, et éventuellement à quelques pixels de bordure supplémentaires pour compenser la conception des filtres et du matériel de montage qui vont devant le capteur.


Je viens de remarquer que je comptais mal les sensels dans mon image animée. Au cours des deux premières étapes, il ne combine pas 8 sensels ... il combine 28 sensels en 8 pixels. Au cours des deux dernières étapes, il combine 14 sensels en 4 pixels. Désolé pour la différence. J'essaierai de le réparer bientôt.
jrista

-3

Désolé de décevoir, mais aucune de ces explications n'est vraie. Sur chaque capteur, il y a une région en dehors de la zone d'imagerie qui contient également des photosites. Certains d'entre eux sont désactivés, certains sont complètement activés et certains sont utilisés à d'autres fins de surveillance. Ceux-ci sont utilisés pour régler les niveaux d'amplification et de balance des blancs, en tant que «jeu de contrôle» par rapport à ceux qui font l'imagerie réelle.

Si vous prenez les données du capteur RAW de l'une des caméras Powershot compatibles CHDK et utilisez dcraw pour les convertir, vous pouvez obtenir l'image complète du capteur, y compris ces régions 100% noir et 100% blanc.

Ce qui est intéressant cependant, c'est que la résolution de la taille d'image RAW intégrée est toujours supérieure aux résultats JPG intégrés. La raison en est que les méthodes d'interpolation plus simples et plus rapides utilisées à huis clos pour passer de RAW à JPG nécessitent des photosites RVB environnants pour déterminer la couleur finale de chaque pixel. Les photosites des bords et des coins n'ont pas ces références de couleurs environnantes sur tous les côtés pour le faire. Faire le processus plus tard, bien que sur un ordinateur avec un meilleur logiciel d'interpolation RAW, vous permettra de retrouver un peu plus de résolution de taille d'image que ce qui peut être obtenu à partir d'un JPG intégré.

ps Les critiques DPReview et les auteurs d'articles ne doivent jamais être considérés comme des évangiles par quiconque. J'ai trouvé tellement de trous dans leurs tests et d'exemples flagrants où les testeurs ne savaient même pas comment utiliser les caméras, que j'ai ignoré leurs conseils il y a de nombreuses années.


5
Malgré votre commentaire selon lequel «aucune de ces explications n'est vraie», d'autres réponses couvrent déjà cela.
mattdm
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.