Prenons l'image A: une image de 2560 * 1920 pixels parfaitement mise au point. Tranchant comme un rasoir. C'est 5 Mpix.
Prenons l'image B: l'image A redimensionnée à 5120 * 3840. C'est maintenant un fichier de 20 Mpix, mais il n'y a pas de nouvelles données dans l'image, donc - en utilisant le bon sens - ce n'est encore qu'un fichier de 5 Mpix, juste "gonflé".
Théoriquement, on devrait être en mesure de réduire progressivement les dimensions de l'image B jusqu'à ce qu'une netteté raisonnable soit détectée (en la rapprochant le plus possible de l'image A, sans toutefois les comparer à ce stade), et donc de dériver le "vrai" nombre de mégapixels de l'image: le taille en dessous de laquelle l'imagerie commence à perdre ses détails.
Cette valeur pourrait facilement être utilisée pour déterminer l'utilité d'une photo - si je la prends légèrement floue, je peux toujours l'imprimer dans un format plus petit, et personne ne le remarquera. Ou, cela pourrait aider à évaluer la qualité de l'objectif ou du capteur - si un appareil photo 24 Mpix est incapable de capturer une image avec plus de "vrai" 8 Mpix, alors quelque chose ne va pas.
Donc, aller droit au but: existe-t-il un logiciel qui fait exactement cela? Ou suis-je voué à écrire le mien?
D'un commentaire du PO à l'une des réponses:
Je dois mesurer la quantité de détails que mon scanner de transparence positive obtient réellement avant de numériser une collection d'environ 2000 anciennes diapositives et de la considérer comme numérisée. Si je le mets à 19200 dpi optique ou quelque chose comme ça, et qu'il continue de produire des images avec des détails perdus, comme, disons, un appareil photo 5 Mpix, alors je saurai que c'est mauvais.
C'est le problème réel que la question veut résoudre. Tout ce qui précède concerne une solution perçue à ce problème fondamental.