Comment capturer la scène exactement comme mes yeux peuvent voir?


30

Quels paramètres de mon appareil photo reflex numérique émuleront la scène exactement comme je peux voir à travers mes yeux nus?

Je pense qu'il n'est pas possible d'obtenir le contraste et les couleurs exactement comme mes yeux peuvent voir, et cela peut varier d'une personne à l'autre. Donc, je suis plus intéressé par la distance focale de l'objectif. Si quelqu'un peut donner plus d'informations au-delà de la distance focale, je serai heureux de le savoir.

Par exemple, si je me tiens au bord de la mer et que je veux capturer le lever du soleil, quelle devrait être la distance focale pour que je puisse couvrir l'angle de vue que mes yeux peuvent voir, et donc la taille des objets sur la photo sera exactement comme mes yeux le perçoivent?

Mon appareil photo est un Canon EOS 1000D APS-C. J'ai un Sigma de 50 mm 1,8 et 70-300 mm. Peut-on y parvenir grâce à cet objectif d'équipement? Jusqu'à présent, je n'ai pas réalisé ou été satisfait de ce que je vois et de ce que j'obtiens.


Avez-vous un reflex plein format (FX) de recadrage (DX, 1.6x)?
Philippe Lavoie

sûr que je vais modifier ma question, j'ai oublié ce facteur. J'ai canon eos 1000D, qui n'est pas un cadre complet. facteur de recadrage de 1,6x
sam

1
Qu'en est-il des médias destinés à transmettre l'image aux autres? Grand ou petit? Écran ou papier? ...
mouviciel

Intéressant - cela a fini par devenir une forme plus générale de photo.stackexchange.com/questions/8043/… dans le sens où le cerveau de nos téléspectateurs joue un rôle énorme dans leur perception des photos. Excellentes réponses ici.
D. Lambert

1
@mouviviel - Le média est destiné à être livré à mes yeux après avoir pris la photo, À propos, Écran et papier, Si l'écran est correctement calibré, je pense que nous pouvons nous attendre à presque la même chose à l'écran dans Papier, Fondamentalement Écran et papier à la fois: D
sam.

Réponses:


38

Eh bien, je déteste vous le dire, mais vous ne pouvez pas exactement imiter vos yeux. Il y a plusieurs raisons, laissez-moi vous expliquer.

  1. Les humains voient une résolution beaucoup plus élevée dans la fovia centrale (partie centrale de nos yeux) que près des bords. Les caméras ont une résolution uniforme partout.
  2. La plage dynamique est gérée différemment entre les caméras et les humains. Je ne peux pas l'expliquer, mais une scène semble avoir une gamme plus dynamique pour un humain qu'un appareil photo, bien que techniquement un appareil photo ait une gamme plus dynamique.
  3. Les humains voient en 3 dimensions.
  4. Les humains changent leurs points focaux très rapidement, au point que nous ne remarquons pas vraiment les parties floues de la plupart des scènes.
  5. La forme de la vision humaine est très différente d'une photographie. Les photographies sont généralement rectangulaires, avec une certaine dimension, la vision humaine est plus une forme incurvée, bien qu'il soit difficile de quantifier la façon dont notre cerveau gère les signaux.

Malgré tout cela, permettez-moi de dire que cela dépend si vous souhaitez vous concentrer sur une zone spécifique ou sur une scène plus large autour. Si vous voulez la zone spécifique, vous devriez probablement faire environ 150 mm. Quant à un paysage spectaculaire, quelque chose de plus comme un 24 obtiendra tout votre champ de vision. Un nombre couramment cité est de 50 mm, ce qui vous permettra de voir la partie de la résolution la plus élevée de vos yeux, puis certains, mais pas le champ entier, et est généralement un bon compromis. (Tout cela suppose que vous avez un appareil photo plein cadre, si le vôtre est un capteur de récolte, veuillez le diviser par le facteur approprié)


Ok, je n'étais pas satisfait de cette situation, où j'ai pris une photo du lever du soleil en utilisant 50 mm 1,8, la taille du soleil était beaucoup plus petite en photo par rapport à ce que j'ai vu en vrai, donc je pense que je vais devoir ajuster ma distance focale autour 90-100 mm pour obtenir la bonne taille. Merci.
sam

1
Comme je l'ai dit, l'œil a différentes régions de sensibilité. C'est un peu dommage que vous ne puissiez pas vraiment obtenir le FOV et la perception, c'est vraiment incroyable ce que nos yeux et notre esprit peuvent faire, alors ...
PearsonArtPhoto

1
vous en avez oublié un: le ou les yeux humains ont un champ de vision différent de l'image générée par la plupart des caméras (des caméras hautement spécialisées peuvent exister). Nous ne voyons pas dans le facteur de forme 4/3 ou 2/3.
jwenting

De plus, l'image que vous "voyez" dans votre cerveau passe essentiellement par une pile de 1000 filtres, des post-processeurs et une session photoshop décente.
Hobbamok

36

L'œil bouge

Je voudrais ajouter à la réponse de @Pearsonartphoto, que les yeux humains ne voient pas une scène immobile, au lieu de cela ils la scannent en continu, ajustant leur "ouverture" et se recentrant pendant qu'ils la scannent. Ainsi, grâce à ce processus de numérisation, nous pouvons percevoir :

  • la plage dynamique plus élevée,
  • une profondeur de champ infinie,
  • une scène plus large dans son ensemble,
  • beaucoup plus de détails qu'une «résolution» de l'œil immobile ne peut le voir.

Ce que nous «voyons» est donc le résultat du «post-traitement» d'un flux d'images, 30 à 70 images par seconde. Voir Mouvement oculaire .

La caméra est toujours

La caméra ne peut pas simuler ce que l'œil voit, car une grande partie de ce que l'œil voit est notre processus de voir et de penser la scène, et cela se produit en grande partie dans le cerveau, pas seulement dans l'œil.

Mais vous pouvez prendre des photos qui produisent une certaine impression souhaitée chez la personne qui les voit. Et c'est là que l'art commence , car il faut provoquer certains sentiments chez une autre personne au moyen d'un objet plat et coloré.

Techniques d'images multiples

PS Certaines techniques populaires de la photographie numérique tentent en fait de récupérer davantage d'images multiples séquentielles comme le fait la vision humaine. Ces techniques comprennent:

  • assemblage panoramique (mosaïquage d'images multiples pour couvrir un angle de vue plus large et augmenter la résolution),
  • fusion d'exposition et techniques HDR (empilement de plusieurs images pour augmenter la plage dynamique),
  • empilement de la mise au point (empilement de plusieurs images pour augmenter la profondeur de champ) (plus) .

Vous l'avez bien résumé, la meilleure réponse de loin.
labnut

27

Capturer une image exactement comme vos yeux la voient? Pas de problème, mais ce n'est pas tout à huis clos, vous devrez faire un peu de travail en post. Et ce n'est certainement pas ce que vous voulez vraiment.

Tout d'abord, vous aurez besoin d'un objectif fisheye circulaire qui se clipse mal avec lequel prendre la ou les photos. (Vous aurez en fait besoin de plusieurs images et d'un système de visualisation avec un suivi oculaire intégré qui peut retourner les images lorsque votre œil se déplace.) Personne ne fabrique un objectif qui fonctionne aussi mal que l'œil humain (au moins, personne ne fait un comme ça exprès et le propose à la vente comme objectif photographique), le reste devra donc se faire en post.

Tout d'abord, vous devrez couper l'image en haut. Exactement là où variera, mais c'est là que votre sourcil se met en travers. Ensuite, vous devrez exécuter un outil de recherche de bords - dans Photoshop, le filtre en relief Sketch-> Bas fera l'affaire. Mettez le résultat de cela sur un ensemble de calques séparé pour le multiplier - vous le fusionnerez plus tard, mais vous pouvez masquer le calque pour l'instant.

Ensuite, sélectionnez une section au milieu de l'image - environ un ou deux pour cent de l'image entière - affinez la sélection de vingt ou trente pixels, puis copiez cette sélection sur un calque séparé.

Exécutez maintenant un filtre de flou important sur l'image d'origine. Vous voulez pouvoir voir les couleurs, mais pas de vrai détail. Fusionnez la couche de bas-relief sur l'image floue. Fusionnez ensuite le calque que vous avez créé à partir de la sélection. Vous devriez maintenant avoir une image circulaire avec le haut coupé, des bords mal définis, aucun détail réel de l'image sur la majeure partie de l'image, mais avec les bords des éléments originaux qui appellent l'attention et une petite zone au milieu (environ dix pour cent de la largeur et de la hauteur) dans une mise au point relativement nette.

Tu n'as pas encore fini. Vous devez créer une sélection circulaire d'environ la moitié de la taille de la zone mise au point, juste en dessous et d'un côté, et chevauchant légèrement la zone de mise au point. Remplissez bien la sélection, puis remplissez-la de noir.

Créez un nouveau calque de superposition, remplissez-le de 50% de gris et ajoutez environ dix pour cent de bruit gaussien monochrome, puis donnez-lui un bon flou. Fusionnez cela.

Vous avez maintenant une image qui se rapproche de ce que vous voyez réellement avec l'œil fixe. Il est en réalité beaucoup moins déformé que ce que voit votre œil, mais l'ajout de toutes les petites circonvolutions qui se produisent en raison de l'épaisseur différente des fluides à la surface de l'œil à un moment donné est très difficile à réaliser pour cet exercice. .

Tout ce que vous pensez voir vient de votre cerveau, pas de votre œil. Ce point noir? Vous en avez un dans chaque œil et votre cerveau remplit les données manquantes. La vaste mer de détails? Couture panoramique dans le cortex visuel. Netteté de toute sorte? Moyennage de plusieurs "expositions". Nous avons également un système d'ouverture automatique et effectuons un "décalage ISO" à la volée en fonction de ce à quoi nous prêtons attention à un moment donné (notre plage dynamique statique n'est pas trop différente de ce que la caméra capture - nous faisons du HDR " en poste ").

Ce que vous voulez, c'est probablement capturer ce que votre esprit voit, pas ce que vos yeux voient, et c'est différent pour chaque image. C'est pourquoi ils fabriquent toutes ces lentilles différentes. Parfois, vous voulez montrer un vaste panorama parce que c'est ce que vous avez vu . Mais même avec un paysage immense, c'est peut-être juste un petit bosquet d'arbres qui a attiré votre attention. Un portrait peut être un gros plan serré, ou il peut impliquer tout l'environnement du gardien - encore une fois, tout dépend de ce que vous avez vu dans votre esprit, pas de ce que vous avez vu avec votre œil réel. La même chose vaut pour la profondeur de champ - étiez-vous en train de regarder la scène entière, ou simplement de prêter attention à un petit détail dans un contexte plus large?

En d'autres termes, ce n'est pas une question à laquelle on peut répondre directement. La réponse est, et sera toujours, "cela dépend". Expérience. Entraine toi. Apprenez à connaître vos outils et ce qu'ils font, et finalement vous saurez exactement ce que vous devez faire pour capturer non pas ce qui était réellement là, mais ce que vous avez vu. Ansel Adams l'a appelé prévisualisation , et il a passé beaucoup de temps à développer un système formel qui lui permettrait de capturer sur film ce qu'il voyait avec son esprit et son cœur, pas avec ses yeux.


4
Bien que cela commence peut-être un petit peu, cela finit par être une réponse magnifique et merveilleuse. Gloire.
lindes

1
Wow, je me suis perdu en lisant les trucs de Photoshop puis à la fin c'était un bon conseil :) TY.
sam

2
Quoi, pas de flotteurs ?!
junkyardsparkle

Le processus Photoshop est une excellente description de la mauvaise qualité d'image que l'œil voit réellement, fixée en place. Mais ce n'est pas fixe et le cerveau assemble le tout.
doug

10

L'un des problèmes rencontrés pour essayer d'imiter la vue humaine sur une photo est le champ de vision .

La perspective que nous voyons, qui est une fonction de la distance focale relative, est à peu près la perspective d'un objectif de 50 mm sur un capteur plein format ou de 32 mm sur un capteur DX, mais le problème n'est pas la perspective, c'est le champ de vision. Pensez à l'image que vous voyez à 50 mm et étendez maintenant le champ de vision comme vous le feriez lorsque vous prenez un panorama.

Si vous preniez une photo "humaine", vous verriez presque 180 degrés horizontalement et environ 120 degrés verticalement, tout en conservant la perspective de la distance focale moyenne.

Prenez ce diagramme grossier de l'œil (vert) et un capteur SLR numérique (bleu). Vous remarquerez que la distance focale est exactement la même pour les deux médiums, 17 mm environ, mais l'angle auquel la rétine s'étend autour est beaucoup plus que celui du capteur.

Champ de vision

Il voit un champ de vision plus grand, avec la même distance focale. C'est pourquoi un capteur DX équivaut à un champ de vision 1,6 fois plus petit que celui du capteur 35 mm, mais à la même distance focale, la perspective ne change pas. Il capture simplement une zone plus petite de la scène.

Les panoramas sont un moyen d'émuler le champ de vision de quelque chose comme l'œil humain tout en conservant une perspective plus plate et plus réaliste.


Le prochain problème est la plage dynamique . Une plage dynamique moyenne de capteurs numériques de taille SLR est d'environ 11 arrêts de lumière. Cela signifie qu'il peut enregistrer la différence entre 11 doublements d'intensité lumineuse. 1, 2, 4, 8, 16, 32, etc. Quelle est la précision d'une autre histoire. 14 bits est meilleur que 12 et 12 est meilleur que 8 bits, mais analogique est encore meilleur que numérique 14 bits.

Alors qu'un corps professionnel plein format capable de capturer jusqu'à et plus de 13 arrêts par bonne journée est considéré comme impressionnant par les normes modernes, il n'est même pas proche de l'œil humain.

L'œil humain est parfois capable de distinguer la différence entre environ 18 à 20 arrêts d'intensité, dans une mesure très grossière. Cela signifie que l'ombre noire que voit votre appareil photo peut être facilement vue en détail par l'œil humain, tout en voyant des détails clairs dans la scène . C'est là que la plage dynamique d'un capteur numérique diminue actuellement.

Il ne peut tout simplement pas distinguer des intensités lumineuses aussi différentes en même temps. Parfois, c'est tellement mauvais que vous devez exposer pour les reflets ou exposer pour les ombres et le sucer, même lorsque vos propres yeux peuvent voir les deux très bien.

Le HDR est un moyen d'émuler la plage dynamique de l'œil humain, mais il est toujours limité par les supports sur lesquels il est visualisé ainsi que la façon dont il est traité.


Un autre problème est que, même si c'est une promenade dans le parc pour nous, car notre cerveau est conçu pour voir de cette façon, seule la fovéa voit en détail. La vision périphérique est plutôt détaillée, et est principalement là pour voir le mouvement, ce qui peut nous aider à identifier que des choses se produisent autour de nous ou nous avertir du danger et déclencher la réponse de combat ou de fuite.

Si vous deviez simuler cela sur une photo, l'image aurait une petite zone de mise au point au centre et l'image deviendrait rapidement floue lorsque vous vous rapprochez des bords.


Il y a d'autres problèmes que je n'ai pas abordés ou que je ne connais pas moi-même, mais je pense qu'en fin de compte, une photographie n'est pas vraiment destinée à "imiter" l'expérience humaine, elle est destinée à capturer un moment, à créer une réponse ou une émotion, ou pour capturer des souvenirs, ou pour obtenir un gros chèque de paie d'un client :)


Donc, tu veux dire que l'objectif de bébé donne mieux ou dit un effet réel à ce que nous voyons? parce qu'il se concentrera à un moment donné et que d'autres choses seront floues?
sam

Que voulez-vous dire?
Nick Bedford

1
Je suppose. Je suppose que la vraie question est de savoir si vous devez ou non le faire. Une simulation pure signifierait que vous brouilleriez la zone extérieure de la photo, mais si vous parveniez à faire exploser la photo finale pour l'adapter à votre vision, alors ... votre vision prendrait le flou, si vous savez ce que je veux dire.
Nick Bedford

D'accord. Expérimentera un peu la prochaine fois :)
sam.

0

Votre cerveau peut s'adapter aux signaux provenant des cellules de détection de lumière dans votre œil afin que vous puissiez avoir une gamme dynamique plus élevée de vos yeux que celle des cellules de votre caméra. Jusqu'à ce qu'il y ait des capteurs de caméra intelligents qui peuvent éteindre celui qu'ils ont suffisamment de lumière, vous aurez du mal à obtenir la portée dont vous avez besoin.

Je suggérerais de faire un HDR d'une scène, mais en ne poussant que légèrement la sous-exposition et la surexposition pour qu'elle semble toujours naturelle.


Eh bien, il y a la priorité des tons clairs (comme l'appelle Canon; existe probablement aussi avec des noms différents pour différentes marques), mais ce n'est pas exactement de cela dont vous parlez ici. J'adorerais un capteur qui avait en quelque sorte une courbe de réponse logarithmique par site photo après avoir
atteint

0

Eh bien, pourquoi ne pas simplement mettre votre objectif 70-200 mm et zoomer jusqu'à ce que l'image sur votre écran LCD soit de la même taille que votre vue sans la caméra. La lentille lira alors la distance focale à laquelle vous vous trouvez. Ou utilisez simplement le viseur. Une étude approfondie de la vue réelle, de la vue LCD et du viseur vous y amènera, mais vous aurez besoin d'un trépied et d'au moins 10 minutes. Vous pouvez trouver que votre configuration n'excelle qu'à certaines distances. Les 3 vues correspondent de manière satisfaisante. À ce stade, vous pouvez envisager l'achat d'un objectif. Une autre chose après la correspondance d'échelle sera la correspondance tonale à votre œil. Les caméras craignent de voir l'ombre en général. Il semble judicieux d'ajouter un filtre d'assombrissement neutre et d'ajouter quelques arrêts pour compenser dans le but d'éclaircir les ombres tout en gardant les reflets apprivoisés. Cela pourrait conduire à ce que les faits saillants ne soient pas si "époustouflés" tandis que les ombres étaient complètement noires si l'exposition était simplement augmentée. Un filtre UV semble également important. Après cela, on peut ajuster les fonctionnalités de traitement à huis clos pour les ajuster et faire de ces paramètres par défaut. Je mentionne juste ici ce que j'essaierais. J'espère que cela t'aides.


Le problème principal avec cela est que l'apparence d'une image est déterminée par bien plus que la distance focale et la couleur, y compris la distance de visualisation, le support et les conditions de visualisation. Comme cela a été mentionné dans quelques réponses, une caméra ne peut pas reproduire ce qui est vu par l'œil.
Maudites vérités
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.