La prise de vue à une résolution RAW inférieure à l'aide d'un appareil photo à capteur de récolte imite-t-elle les qualités des caméras plein format?


12

Je ne parle pas de modifications de la distance focale.

J'ai lu de nombreux articles qui disent que dans un appareil photo plein format, la densité de pixels est inférieure à celle d'un appareil photo à capteur de récolte.Il capture donc plus de lumière et offre ainsi de meilleures performances ISO et une plus grande plage dynamique. Donc, si je change d'appareil photo à capteur de recadrage pour prendre une résolution inférieure, cela équivaudra-t-il à une meilleure densité de pixels et imitera-t-il les performances d'une image complète (ou format moyen) ou sera-t-il toujours en résolution maximale et réduira-t-il la taille?

--EDIT: 1--
J'ai un Canon 60D et j'ai 3 options pour les tailles d'image RAW (RAW, M-RAW et S-RAW). Si RAW n'est qu'un vidage des capteurs de la caméra, comment peuvent-ils avoir 3 tailles différentes? L'appareil photo réduit-il également les images RAW?


2
Vivek - lisez cette question: photo.stackexchange.com/q/3419/1024 . Selon @whuber (et l'article auquel il renvoie), les petits RAW sont en effet une sorte d'agrégation des différents sensels, comme ce que Stan décrit dans sa réponse, seulement cela se fait en soft plutôt qu'en hardware.
ysap

(La page ysap contient des liens pour couvrir la partie mraw / sraw de la question.)
Veuillez lire mon profil le

Je vais lire le document de ysap et le commenter.
Viv

Réponses:


7

Étant donné que vous avez un Canon, les modes RAW inférieurs, mRAW et sRAW, UTILISENT ENCORE TOUS les pixels du capteur disponibles pour produire un résultat plus riche sans avoir besoin d'interpolation de calque. Le format de sortie réel, bien qu'il soit toujours contenu dans un fichier image Canon RAW .cr2, est codé au format Y'CbCr, similaire à de nombreux formats de conversion vidéo. Il stocke les informations de luminance pour chaque pixel FULL (2x2 quad de 1 rouge, 1 bleu et 2 pixels verts), et chaque canal de chrominance est dérivé de données de demi-pixel (1x2 paires de 1 rouge + 1 vert ou 1 bleu + 1 vert) .

Je ne suis pas exactement certain de ce que les différences spécifiques de lecture et d'encodage du matériel de bas niveau entre mRAW et sRAW sont, cependant, d'une manière générale, plus le format de sortie est petit, plus vous pouvez utiliser d'informations d'entrée de pixel de capteur pour chaque pixel de sortie. La petite quantité d'interpolation présente dans m / sRAW est théorique, car les deux formats interpolent beaucoup moins que RAW natif. Il convient également de noter que ni mRAW ni sRAW ne sont des formats "RAW" réels au sens normal ... les données du capteur sont traitées et converties en quelque chose d'autre avant d'être enregistrées dans un fichier .cr2.

Pour plus de détails sur les formats dérivés YUV et Canon sRAW, voir ma réponse ici: Pourquoi l'espace colorimétrique xvYCC ne voit-il pas l'adoption pour la photographie fixe?

De "Comprendre ce qui est stocké dans un fichier Canon RAW .CR2":

Le format sRaw (pour "petit RAW") a été introduit avec le 1D Mark III en 2007. Il s'agit d'une version plus petite de l'image RAW.

Pour le 1D Mark III, puis le 1Ds Mark III et le 40D (tous avec le Digic III), la taille de sRaw est exactement 1/4 (un quart) de la taille RAW. On peut donc supposer que chaque groupe de 4 "pixels capteurs" est résumé en 1 "pixel" pour le sRaw.

Avec le 50D et le 5D Mark II (avec la puce Digic IV), le RAW 1 / 4ème est toujours là (sRaw2), et un RAW demi-taille apparaît également: sRaw1. Avec le 7D, la demi-taille brute est appelée mraw (même encodage que sraw1), 1 / 4ème brut est appelé sraw (comme le sraw2).

le Jpeg sans perte sRaw est toujours codé avec un composant 3 couleurs (nb_comp) et 15 bits.

Le code Jpeg de Dcraw a d'abord été modifié (8.79) pour gérer sRaw en raison de la valeur h = 2 du premier composant (fond gris dans le tableau). Les RAW normaux ont toujours h = 1. À partir du 50D, nous avons v = 2 au lieu de v = 1 (orange dans le tableau). Dcraw 8.89 est la première version à gérer cela et le sraw1 de 50d et 5D Mark II.

"h" est le facteur d'échantillonnage horizontal et "v" le facteur d'échantillonnage vertical. Il spécifie combien d'unités de données horizontales / verticales sont codées dans chaque MCU (unité codée minimale). Voir T-81, page 36.

3.2.1 Format sRaw et sRaw2

h = 2 signifie que les données décompressées contiendront 2 valeurs pour le premier composant, 1 pour la colonne n et 1 pour la colonne n + 1. Avec les 2 autres composants, sraw décompressé et sraw2 (qui ont tous h = 2 & v = 1), ont toujours 4 valeurs élémentaires

[y1 y2 xz] [y1 y2 xz] [y1 y2 xz] ...
(y1 et y2 pour le premier composant)

Chaque "pixel" des images sRAW et mRAW contient quatre composants ... un composant Y 'divisé (y1 et y2), ainsi qu'un x (bleu chrominance) et z (rouge chrominance). Les quatre composants (d'une perspective 1/2 image, sRAW1 / mRAW) ont une hauteur de colonne de 2 (h) et une largeur de 1 (v). Cela indique que la valeur de luminance (Y ') est composée d'un quadruple pixel complet de 2x2 pixels ... ou de deux colonnes de 2x1 pixels stockées dans y1 et y2.

Les références ci-dessous ne semblent pas le dire spécifiquement, donc je spécule un peu ici, cependant avec le sRAW2 (1/4 brut), je crois que les informations de luminance seraient dérivées d'un bloc de pixels 4x4 où h = 4 et v = 2. Le codage de la chrominance deviendrait plus complexe à une image de taille 1/4, car le réseau de filtres de couleur de bayer sur le capteur n'est pas organisé en colonnes rouges et bleues soignées. Je ne sais pas si des colonnes alternées de hauteur 2x1 sont traitées pour chaque composant Cr et Cb, ou si une autre forme d'interpolation est effectuée. Une chose est certaine ... l'interpolation des données source est toujours plus grande que les données de sortie, et aucun chevauchement (comme dans l'interpolation normale de bayer) ne se produit pour autant que je sache.

Enfin, sRAW1 / mRAW et sRAW / sRAW2 sont compressés à l'aide d'un algorithme de compression sans perte. Il s'agit d'une distinction critique entre ces formats et JPEG, qui utilise également un codage de type ycc. JPEG effectue une compression avec perte, ce qui rend impossible de restaurer les pixels à leur représentation d'origine exacte. Les formats s / mRAW de Canon peuvent en effet être rétablis à des données d'image 15 bits pleine précision d'origine.

Les références:


8

En théorie, cela pourrait se produire si l'appareil photo utilisait la bonne stratégie pour réduire la taille de l'image.

Comme vous l'avez noté, avec les caméras actuelles à capteur de récolte, l'image brute reste la même, quelle que soit la taille JPEG que vous avez définie. L'image JPEG est simplement mise à l'échelle. Cela peut quelque peu réduire l'apparence du bruit, mais la réduction est due à l'algorithme de mise à l'échelle de l'image (vous ne pouvez pas insérer autant de pixels mouchetés dans la petite image que dans la version pleine taille). Il est plus probable, cependant, que vous puissiez faire au moins aussi bien, sinon mieux, si vous faites la réduction du bruit et la mise à l'échelle vous-même après coup.

Il existe une stratégie qui produira une véritable réduction du bruit. Certains dos de format moyen à haute résolution (comme la série Phase One SensorPlus) utilisent une stratégie appelée pixel binning , où les groupes de capteurs adjacents sont traités comme un capteur beaucoup plus grand et leur charge cumulée est lue à partir du capteur. C'est différent de la lecture des charges individuelles et de la moyenne (qui est ce à quoi vous êtes limité dans le traitement post-lecture) - cela se produit au niveau du matériel et change ce que signifie "brut". Le bruit de lecture a de meilleures chances de s'annuler et la charge cumulée rend la conversion analogique-numérique moins ambiguë (la plage de quanta convertis est plus large avec moins d'amplification).

En pratique, cela signifie généralement réduire la résolution d'un facteur quatre (la moitié de la largeur et la moitié de la hauteur). Avec un dos de format moyen 60 ou 80MP, cela vous laisse toujours avec une image 15 ou 20MP; avec un appareil photo à capteur de recadrage de 16 mégapixels, vous en serez à une image brute de 4 mégapixels. Maintenant, vous le savez peut-être et je sais peut-être qu'une image 4MP propre est meilleure qu'une image 16MP bruyante, mais tout le monde n'acceptera pas que cela coûte plus cher de produire une image plus petite. Cela signifie qu'il est peu probable que le binning de pixels soit utilisé dans quelque chose de moins que la caméra de niveau professionnel dans un avenir proche. Il peut apparaître dans les appareils photo plein format si leur résolution continue de grimper, mais je ne le rechercherais pas dans un capteur de récolte. (Eh bien, peut-être que Pentax pourrait essayer un jour, car ils ne font pas de plein écran.)


Je suis désolé, je pense que je devrais clarifier les tailles d'image RAW. J'ai un Canon 60D et j'ai 3 options pour les tailles d'image RAW (RAW, M-RAW et S-RAW). Si RAW n'est qu'un vidage des capteurs de la caméra, comment peuvent-ils avoir 3 tailles différentes? L'appareil photo réduit-il également les images RAW?
Viv

@Stan: Canon fait déjà exactement ce que vous avez décrit avec ses formats mRAW et sRAW. Ce ne sont pas des formats RAW littéraux, ce sont des dérivés YUV (Y'CrCb pour être exact), et ils le font en effet pour des formes de binning de pixels. Voir ma réponse pour plus de détails.
jrista

Concernant l'avenir: la véritable limitation est la zone du capteur. Si la taille du capteur reste la même et que la résolution augmente (en rétrécissant les pixels), il n'y aura aucun gain net à partir du regroupement de pixels. Il s'agit simplement d'utiliser plus de capteurs pour lire la même zone physique du capteur. Ce que nous pouvons espérer, c'est une sensibilité améliorée des capteurs individuels, de sorte que plus de lumière et moins de bruit soient enregistrés dans une petite portion donnée du capteur.
2011

1
@jrista: ce n'est pas du binning, c'est de la moyenne après lecture. Le regroupement doit entraîner une réduction intégrale de la résolution linéaire et les données individuelles de photosite ne sont pas disponibles pour le traitement car les lectures cumulatives (non séparées, puis moyennées, lectures) sont effectuées sur plusieurs capteurs. (Dans un système Bayer-quad, cela signifie 1/4, 1/16, 1/64, etc., de la pleine résolution exprimée en surface ou en pixels.) La moyenne après lecture n'est pas différente, techniquement, de la mise à l'échelle; cela fonctionne simplement dans un espace de données différent.

1

Si le bruit élevé est votre problème principal, une solution consiste à prendre plusieurs images et à avoir un logiciel avec de bons algorithmes combinant une bonne image de plusieurs pires. Par exemple ALE, Anti-Lamenessing Engine le fait. Pour les sujets en mouvement, cela ne fonctionne évidemment pas, mais vous pouvez photographier à la main, disons, à 1600 ISO, puis combiner les prises de vue pour atteindre des niveaux de bruit proches de 400 ou 800 ISO.

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.