J'ai récemment acheté un objectif superzoom, le Nikon 28-300mm. Bien que je l'aie principalement pour sa polyvalence, mon intuition était qu'un objectif qui peut faire une focale de 300 mm à 50 cm, comme c'est le cas, offrirait également un grossissement raisonnable pour les prises de vue macro.
J'ai été choqué de découvrir que, sur une distance d'environ 5 mètres, mon objectif macro 105 mm avec téléconvertisseur 2x offre un champ de vision considérablement plus étroit à 210 mm que mon objectif 28-300 mm à 300 mm! J'ai trouvé un fil de discussion sur cet objectif qui explique:
Quiconque s'attend à pouvoir l'utiliser en tant que macro doit soigneusement vérifier le grossissement maximal: 0,32x. Étant un objectif IF, le Nikkor augmente considérablement l'angle de vue lors d'une mise au point plus rapprochée. [...] 0,32x à 50 cm calcule approximativement une distance focale de 92 mm à [la distance minimale de mise au point] ... donc "dramatiquement" aurait pu être écrit même en majuscules.
J'aimerais mieux comprendre quels principes de construction et / ou de physique des lentilles conduisent à ce comportement contre-intuitif. À un niveau pragmatique: il est clair que je peux dériver le champ de vision effectif à une distance de mise au point minimale du grossissement maximal indiqué dans les spécifications, mais comment dois-je procéder pour déterminer le champ de vision effectif à d'autres distances? Par exemple, comment déterminer le champ de vision de mon objectif 28-300 mm à 300 mm et 3 mètres? Peut-on les calculer ou les déterminer empiriquement? S'ils doivent être déterminés empiriquement, y a-t-il des gens qui documentent publiquement ce genre de chose?