Comment une caméra haute résolution peut-elle être importante lorsque la sortie est en basse résolution?


17

La question est inspirée de cette question montrant ces images .
La réponse acceptée suggère que ces photos ont été prises par une caméra de vision 8x10, et l'utilisation d'une caméra 8x10 a été confirmée dans les commentaires.

Ma question est: comment savoir?


Lorsqu'elles sont affichées sur la page Web, ces images sont de 496x620 = 0,37 mégapixels (ou 720x900 = 0,65 mégapixels si vous cliquez pour "plein écran").
Ainsi, tout appareil photo avec une résolution supérieure à 0,37 Mpx devrait pouvoir capturer ces images, ce qui signifie à peu près tous les smartphones et webcams sur le marché.

Je connais les capteurs Bayer . Mais l'effet le plus défavorable d'un capteur Bayer devrait être de réduire la résolution d'un facteur quatre: si vous réduisez l'image d'un facteur deux dans chaque direction, chaque pixel de sortie contiendra des données d'au moins un capteur d'entrée pour chacun des les canaux R / G / B.
La réduction d'échelle par le facteur 4 signifie toujours que n'importe quel appareil photo avec une résolution supérieure à 1,5 Mpx (plutôt que 0,37 Mpx de sortie) devrait être capable de capturer ces images. Nous parlons encore de presque tous les smartphones et la plupart des webcams sur le marché.

Je connais la profondeur des couleurs . Mais JPG, le format que nous utilisons pour visualiser ces images, est 8x3 = 24 bits. Et selon les scores DxOMark , plusieurs caméras, dont le Sony NEX 7 et le Nikon D3200, sont capables de capturer 24 bits de couleur.
Donc, même si une webcam à 10 $ ne peut pas vraiment saisir les nuances de ces images, un NEX 7 ou D3200 devrait être en mesure de le faire.

Je sais que la plupart des objectifs ont une résolution inférieure à celle dont la plupart des capteurs sont capables. Par exemple, le Nikkor 85 mm f / 1,4G est l'objectif le plus net de Nikon selon DxOMark , et donne un équivalent dans le meilleur des cas de résolution 19Mpx sur un appareil photo 24Mpx (le Nikon D3X plein format), tandis que l'objectif le moins net a un l'équivalent dans le meilleur des cas de 8Mpx sur le même appareil photo.
Mais la pire lentille de leur base de données donne toujours un ordre de grandeur plus de résolution que le format de sortie de ces exemples.

Je connais la plage dynamique. Mais ces images contrôlent l'éclairage afin de ne pas souffler les hautes lumières ni perdre les ombres. Tant que vous êtes en mesure de le faire, la plage dynamique n'a pas d'importance; il sera de toute façon mappé à la plage de sortie 0-255 de JPG.
Dans les deux cas, DxOMark indique que plusieurs caméras avec plein format ou des capteurs plus petits ont une meilleure plage dynamique que les meilleures caméras de format moyen.


C'est ce que je sais, et il n'y a rien dans ces fragments de théorie qui puisse me dire comment il est possible de distinguer une caméra 8x10 depuis un Sony NEX 7 lorsque vous visualisez le résultat sous forme de JPG 0,37 Mpx.

Essentiellement, pour autant que je comprends, le nombre de mégapixels et la profondeur de couleur que le capteur peut capturer ne devraient pas être pertinents, tant que c'est au moins autant que le format de sortie peut représenter.

Pourtant, je ne doute pas du jugement de la réponse de Stan Rogers. Et je n'ai jamais rien vu de similaire, en termes de netteté perçue, avec des caméras à petit capteur.

Ai-je mal compris ce que signifie la résolution?

Je suppose que je pose principalement des questions sur la théorie: comment une différence entre deux résolutions (mesurée en pixels, lp / mm, profondeur de couleur ou autre) peut-elle être visible dans un format d'affichage qui a moins de résolution que l'un des originaux?

Ou pour le dire différemment: y a-t-il quelque chose qui m'empêche, en principe, de reproduire ces images jusqu'au pixel en utilisant un Sony NEX 7 et 10 000 $ d'éclairage?


2
Tant que vous obtenez tout parfait dans votre prise de vue, il n'y a pas non plus grand avantage à filmer RAW sur JPEG. La résolution, la profondeur de bits et les données RAW permettent de tirer le meilleur parti de votre photo! Petite photo Web aujourd'hui, affichage rétine 4x ou impression de haute qualité demain.
Henrik

1
Malheureusement, je ne peux accepter qu'une seule réponse. Matt Grum avance un argument crédible selon lequel un petit capteur, plus l'éclairage et un peu de post-traitement, peuvent reproduire peut-être 95% de ce que nous voyons dans les images de Martin Schoeller à la taille du Web (à l'exclusion des effets DoF). Je pense que Michael Nielsen avance un argument crédible selon lequel vous pourriez avoir besoin d'une résolution système APS-C meilleure que la résolution standard pour atteindre 100%. Et Stan Rogers explique comment nous pouvons reconnaître un appareil photo grand format même sur des photos de taille Web. Je vous suggère de les lire tous :)
jg-faustus

Réponses:


10

Tout tourne autour du micro contraste. Regardez les articles sur aps-c par rapport au plein format, puis étendez cette différence aux capteurs de moyen et grand format.

Quand les différences entre l'APS-C et les capteurs plein format sont-elles importantes et pourquoi?

En suivant les théories sur le suréchantillonnage, il vaut mieux échantillonner à un taux plus élevé puis sous-échantillonner que d'échantillonner à la limite de nyquist dès le départ - c'est-à-dire. si votre objectif final est 640x480, il est toujours préférable d'utiliser un capteur 1280x960 qu'un capteur 640x480.

Peu importe le nombre de MPixels que vous avez lorsque les pixels voisins dépendent les uns des autres, de toute façon, car le cercle de confusion est plus grand que vos pixels sur le plan du capteur. Les lentilles ont également une capacité de résolution limitée. De plus, vous devez tenir compte de la "netteté" de l'objectif par rapport à son ouverture, et un capteur plus grand vous permet de vous rapprocher et d'arrêter la DOF plus étroite, ce qui signifie que vous pouvez capturer encore plus de détails - Le cercle de confusion est plus grand, l'objectif fonctionne avec moins de diffusion, etc.

Et puis vous avez la "compression en profondeur" effectuée par la distance focale de l'objectif qui est assez agressive dans ces prises de vue, pointant vers un téléobjectif. Le champ de vision sur un petit capteur vous obligerait à prendre du recul et à ouvrir beaucoup l'ouverture pour obtenir cette DOF étroite. Cependant, en exécutant les chiffres, avec un appareil photo plein format, vous pourriez y arriver, 210 mm, distance de 2 mètres, F8 donnerait un DOF de 4 cm et un FOV qui prend juste le visage comme ces photos.

Autrement dit: plus le capteur est grand par rapport au sujet, moins l'objectif doit travailler sur les rayons lumineux pour les comprimer en un endroit étroit. Cela augmente la clarté de la photo et montre quelle que soit la distance de visualisation (qui est ce qui est simulé en redimensionnant l'image à une résolution inférieure).

Les discussions suivantes sur l'amélioration et la rétention des détails par le redimensionnement sont une comparaison si des sujets similaires grand format vs fullframe et grand format versus apsc:

En haut: visages masculins avec des talons de barbe. Dans la résolution sur le site auquel vous vous connectez, la barbe est rendue avec des poils de pixels, mais tout cela est perdu à la même taille que l'exemple de Matt. Maintenant, la barbe est diffuse. Si nous voyons l'image de Matt dans la même taille que les photos 8 x 10 du site, nous pourrions voir une grande différence si la tête n'est pas mise au point. Même un système aps-c et un capteur plus petit pourraient produire ce résultat (en ce qui concerne les détails).

En bas: est-ce que nous comparons les cils du visage féminin de taille similaire à celle de la page Web que vous avez montrée, à un œil net d'un appareil photo aps-c, et l'affûtage ne ramènera pas les pores de la peau. Nous pourrions améliorer la perception des cils au prix d'un halo lumineux autour.

Nous voyons maintenant une énorme différence de résolution du "système global" , et la caméra apsc + l'objectif utilisé + vu à la résolution basse donnée ne peut pas rendre les mêmes détails que la caméra 8x10 + cet objectif + la résolution affichée . J'espère que mon point est plus clair maintenant.

détails

Une autre comparaison avec les aps-c, les talons de barbe, après les avoir affûtés. Même si stackexchange les redimensionne, nous pouvons toujours percevoir une différence de clarté.

apsc

En conclusion, les autres facteurs que vous posez sur la résolution autres que la résolution en pixels sont:

  • Résolution totale du système lp / mm
  • SNR
  • Grossissement de la personne vers le capteur à l'écran sur lequel vous le regardez à la distance donnée depuis laquelle vous le regardez jusqu'à la projection de votre œil sur la résolution de la rétine - le plus petit grossissement (inférieur à 1: 1) de toute partie du système, plus les exigences sont élevées pour les deux facteurs ci-dessus, qui sont à leur tour influencés négativement par la plus petite zone de projection.

Vous obtiendrez plus de détails dans une photo macro à échelle réduite que si vous ne tiriez pas de macro en premier lieu.

Une preuve finale que la résolution avant la mise à l'échelle compte. Haut: 21MP FF Bas: 15MP Aps-c avec la même distance focale objectif / ouverture.

Résolution / taille de deux capteurs diff

Maintenant redimensionné à une résolution égale:

Petit

Plus petite

Le plus petit

Minuscule

et appliqué un peu d'affûtage pour ramener quelques détails. Que vois-tu? un peu plus de détails de la caméra 21mp FF vue à la même taille / résolution qui serait équivalente à une caméra 3Mp. vous ne pouvez pas compter les lignes dans l'image redimensionnée, mais la perception qu'il s'agit de lignes est vraie. Que vous le vouliez ou non est votre choix créatif, mais en commençant par la résolution plus élevée (donnée par le système total), vous avez le choix. Si vous n'en voulez pas, vous pouvez brouiller l'image avant de la redimensionner.

Une dernière expérience pour montrer la différence entre un capteur de petite taille, de faible résolution par rapport à un capteur plus grand, une résolution plus élevée, mais redimensionné et affiné à la même résolution, montré à la même taille à la fin - avec TOUS LES AUTRES ÉGAUX. Cool, hein? Comment ai-je fait ça? Mon appareil photo APS-C que je prends simule un "capteur de recadrage" (plus petit que mon apc-c) en recadrant une image hors de l'image. Ensuite, je m'approche du sujet pour remplir un capteur 4x plus grand avec le même sujet. - comme les portraits sur un capteur grand format est essentiellement une macro - se rapprochant beaucoup plus que ce que vous obtiendriez avec un appareil photo aps-c. Même qualité électronique, même objectif, mêmes réglages, même lumière.

Voici à quoi cela ressemble sur le petit capteur, appelons-le "mini aps-cc":

Petit capteur

Nous voyons ici le "grand format" (grand aps-c complet):

aps-c

Ici, nous voyons beaucoup de détails, non? Mais cela n'a pas d'importance après l'avoir redimensionnée à une image de 0,016 MP et affinée pour un même contraste global, n'est-ce pas?

Comparaison de taille égale

Mais en effet, nous le faisons! Si vous ne me croyez toujours pas, j'abandonne :)


Une note sur le motif de labyrinthe que ces cultures affichent: c'est l'artefact d'interpolation de bayer commun pour le dématriçage de bayer AHD.
Michael Nielsen

Cependant, la perception qu'il s'agit d'un tableau de lignes est plus fidèle à l'original que de voir une boîte grise. Identique à voir des pores dans la peau, peut-être pas la quantité exacte de la vie réelle, mais ils seraient là.
Michael Nielsen

Merci, comparaisons intéressantes. Il semble que la netteté / détail (ou au moins une illusion de détail) survit plus à la réduction d'échelle que je ne le pensais. Vous m'avez donné quelque chose à considérer.
jg-faustus

gardez à l'esprit que les lignes convergentes sont un cauchemar pour les algorithmes d'interpolation et nous SAVONS à quoi il DEVRAIT ressembler, nous n'avons pas les mêmes hypothèses sur les détails dans une belle texture de peau, donc même un point se déplace d'un demi-pixel sur le visage, il a toujours l'air impressionnant. Dans le plus petit exemple ci-dessus, nous percevons toujours qu'il a des lignes jusqu'à la deuxième verticale.
Michael Nielsen

Michael, une question connexe - et si la taille du capteur est la même? Vais-je obtenir de meilleurs résultats avec un capteur APS-C avec une résolution native de 16 MP, mais sous-échantillonné à 8 MP, par opposition à l'achat d'un appareil photo (hypothétique) avec un capteur ASP-C 8 MP?
Vaddadi Kartick

7

Plus que tout, la caméra de vision était une profondeur de champ extrêmement faible qui n'est pas parallèle au plan du film. La mise au point des lèvres et des yeux sur plusieurs images avec la posture du sujet et le DoF très peu profond (le plus souvent, le front dans la mâchoire immédiatement sous les yeux est doux) est impossible sans inclinaison.

Il y a aussi la nature des plages floues; c'est plus typique d'un rendu proche de la taille réelle que d'une mise au point éloignée. L'extension DoF vers la caméra est presque égale à l'extension vers l'arrière-plan, ce à quoi vous vous attendez à l'approche de la reproduction 1: 1. À des distances de travail plus normales, vous vous attendez à une répartition d'environ un tiers / deux tiers de la netteté apparente autour du plan de mise au point nette (un tiers de la DoF devant le plan de mise au point; deux tiers derrière). Cela indique donc un "capteur" considérablement plus grand que l'APS-C, plein format ou même moyen format. L'expérience avec les formats 4x5 et 8x10 m'a dit qu'il était plus probable qu'il s'agisse d'un 8x10 (bien que même l'un des rares appareils photo de plus grand format n'aurait pas été hors de question non plus), et je pensais que l'objectif 210 mm était plus probable que, dire,

Comme l'a souligné Michael Nielsen, il y a beaucoup de «micro contraste» apparent dans les images, mais dans une certaine mesure, vous pouvez simuler cela en post-traitement, surtout si le but est de rendre à des tailles Webby. Et je suppose que vous pourriez même simuler le DoF et le plan focal si vous étiez diligent dans la création d'une carte de profondeur avec un plan focal dégradé appliqué contre ce qui devrait à peu près être un modèle 3D du sujet et compris la dynamique de mise au point d'un 8x10 à environ 50-60% de reproduction en taille réelle, mais ce serait un sacré travail. La solution économique, à la fois pour le photographe et toute personne analysant l'image, serait une véritable caméra de vision 8x10.


L'augmentation du microcontraste en post introduit des artefacts, cependant, ainsi que les algorithmes "devinent" les détails, donc ce ne serait pas la même image.
Michael Nielsen

@Michael mais dans une reproduction redimensionnée celles-ci pourraient être à toutes fins utiles non apparentes? Ou pas?
Francesco

«Dans une certaine mesure» était-il ambigu?

Voulez-vous dire que si vous nettoyez d'abord, puis redimensionnez là où l'amélioration est effacée, à moins que la fenêtre du filtre passe-haut ne soit si énorme qu'elle introduit une sonnerie à travers le cadre? Les détails de ces portraits sont si incroyables que si vous examinez un recadrage de la peau de 1 x 50 pixels, cela ressemble à une image binaire, qui peut facilement produire des anneaux de halo avec des filtres de netteté.
Michael Nielsen

3
@MichaelNielsen lorsque vous effectuez un énorme sous-échantillon, vous pouvez introduire un aliasing dans une image totalement douce (sans aucun microcontraste) et obtenir une image extrêmement nette sans halos ni autres artefacts de netteté. Si ce n'était pas pour le plan de mise au point incliné, vous ne seriez pas en mesure de dire que ces images étaient de grand format en regardant les "détails" apparents
Matt Grum

4

Non, un appareil photo haute résolution n'a vraiment pas d'importance lorsque la sortie est en basse résolution, du moins pas lorsque vous passez de mégapixels à deux chiffres à un quart de mégapixel. Prenez l'image suivante:

Redimensionné pour le Web, il a l'air bien malgré le fait que le visage du sujet n'était même pas net! Il est évident à 100% et évident à l'impression, mais vous ne pouvez absolument pas le dire au moment où il a été redimensionné à 2% de ses pixels d'origine et nettoyé pour le Web.

Voici un autre exemple, prenez une image originale massivement douce, à environ 8 mégapixels:

Sous-échantillonner lourdement pour une résolution conviviale Web et affiner, et regardez tout à coup tout le microcontraste!

Un suréchantillonnage 2x contribuera certainement à la résolution et à la fidélité des couleurs des images Bayer. Mais une image de l'original Canon Digital Rebel (300D) sorti en 2003 redimensionné à 600x400 est un suréchantillonnage 5x, dans chaque direction, ce qui signifie que chaque pixel de l'image redimensionnée remplace 25 pixels d'origine. Très, très peu de la qualité de ces 25 pixels va avoir un impact sur l'image redimensionnée.

Le microcontraste accru offert par un système de plus grand format ne sera tout simplement pas visible, le macrocontraste que vous voyez peut être compensé par le post-traitement, lorsque vous avez tellement de résolution pour éliminer les artefacts d'affûtage ne seront pas visibles.

Si vous correspondiez à la profondeur de champ, il serait extrêmement difficile de faire la différence entre un appareil photo 10x8 et un compact lorsqu'il est redimensionné à moins de 1 mégapixel.


puis-je voir son visage dans la même taille que les portraits?
Michael Nielsen

oui quand je rentre chez moi et que je déterre les originaux!
Matt Grum

Je dois être en désaccord avec l'énoncé brutal "une caméra haute résolution n'a vraiment pas d'importance lorsque la sortie est en basse résolution". Les rapports de suréchantillonnage et d'agrandissement importent dans les résultats finaux (jusqu'à une certaine limite).
Michael Nielsen

1
vous obtenez de jolis détails dans la petite image exactement parce que vous avez suréchantillonné tant de fois. Si vous n'aviez utilisé qu'un suréchantillonnage 2x avec la même quantité de flou, aucun détail de la peau n'aurait été obtenu. Et vous en avez trop fait avec l'affûtage, ses cheveux ont l'air bizarre. De plus, cette photo ressemble à une image bas de gamme typique. rien de tel que les images dont nous parlons, qui conservent plus de détails qu'un système APS-C avec un objectif décent peut produire.
Michael Nielsen

Merci pour le dernier exemple, il semble crédible que quelque chose comme les images liées dans la question puisse être créé avec un capteur APS-C. @MichaelNielsen Mais c'est le genre de suréchantillonnage sur lequel porte la question, par exemple la réduction d'échelle, par exemple une prise de vue APS-C de 16 Mpx à une taille Web <1 Mpx. Ainsi, en termes de suréchantillonnage, par exemple, un suréchantillonnage 7x (entrée de 49 pixels pour 1 px) peut-il être visiblement meilleur qu'un suréchantillonnage 5x? Je penche vers "probablement pas", dans votre exemple avec les lignes, je ne vois pas beaucoup / aucune différence au-delà du suréchantillonnage 4x.
jg-faustus

1

Lors du rendu d'une scène avec des détails fins dans une image basse résolution, il est nécessaire d'appliquer un filtrage spatial pour supprimer tout contenu dont la fréquence est supérieure à la limite de Nyquist. Lors de l'application du filtrage spatial, il existe deux objectifs contradictoires:

  1. Le contenu dont la fréquence spatiale est suffisamment faible pour être affiché doit être atténué le moins possible.

  2. Le contenu dont les fréquences spatiales sont similaires doit être atténué par des quantités à peu près égales.

Pour voir où les objectifs entrent en conflit, imaginez une scène avec un motif de lignes convergentes. Si l'espacement se rapproche quelque peu de la limite de Nyquist pour la résolution cible, mais que les lignes sont toujours suffisamment séparées pour être affichées clairement, il sera souvent préférable de les montrer clairement que de les estomper. Si, cependant, la scène contient un motif de lignes convergentes qui se rapprochent trop pour être distinguées, avoir les lignes devenant progressivement plus floues à mesure que leur espacement approche de la limite de résolution serait moins gênant que d'avoir les lignes apparaissent clairement jusqu'à un point où elles transition brusquement vers un gris uni.

Dans de nombreux cas, le type de filtrage optimal pour une scène dépendra de son contenu et des aspects qui l'intéressent. La capture d'une scène dans une résolution supérieure à son format de sortie prévu garantira que toutes les informations qui pourraient être souhaitées dans l'image finale seront conservées. Les informations devront être filtrées avant que l'image puisse être rendue dans une résolution inférieure, mais la capture haute résolution permettra d'adapter les méthodes de filtrage exactes pour s'adapter de manière optimale aux besoins de la scène (et éventuellement utiliser différentes méthodes pour différentes parties d’une scène). Si l'on a l'intention de rendre une image finale à 640x480, l'avantage de la capturer à 6400x4800 ne serait probablement pas beaucoup plus grand que celui offert par 1600x1200, mais il peut y avoir certains avantages à monter jusqu'à environ 2,5x.

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.