Plusieurs des opérations que vous décrivez manipulent les données de l'image de telle sorte que les informations sont perdues ou transformées. Pour la plupart, je ne pense pas que cela importe avec la photographie traditionnelle (c'est-à-dire les tirages et autres), mais cela importe vraiment lorsque chaque pixel est considéré comme une mesure du nombre de photons.
Ce à quoi je pense quand je fais des opérations, c'est la propagation des erreurs. Une erreur peut exister au niveau du pixel unique, au niveau spatial et au niveau des couleurs.
Le bruit est une erreur de capteur à pixel unique pendant le processus de détection, introduite soit par des photons errants, des effets quantiques (la conversion d'un photon en un électron pour le comptage est un événement probabiliste au niveau quantique), et une conversion analogique-numérique. Si les opérations suivantes feront des choses telles que le contraste d'étirement (égalisation de l'histogramme) ou accentueront les régions plus sombres (lumière d'appoint), alors vous voudriez réduire le bruit avant de les faire.
Pour un exemple complètement réduit de ce que je veux dire, prenez une image sur fond sombre (photo avec le capuchon d'objectif en place). Le résultat est du bruit. Vous pouvez améliorer le contraste ou ce que vous voulez, mais c'est toujours du bruit. Un algorithme de réduction du bruit parfait devrait supprimer tout cela, de sorte qu'aucun contraste ne puisse être amélioré lors des étapes ultérieures.
L'erreur spatiale peut être introduite de plusieurs manières. Lorsque vous faites pivoter une image, vous introduisez des erreurs spatiales. Si vous pensez qu'il existe une «vraie» image (au sens idéal platonique), la caméra en enregistre une version numérique. Même lorsque vous utilisez un film - les grains / cristaux du film sont de taille finie, et un certain échantillonnage de la «vraie» image se produira. Lorsque vous faites pivoter une image numérique, vous introduisez des effets de crénelage. Les bords les plus nets seront légèrement émoussés (à moins que vous ne tourniez à 90 degrés, auquel cas l'échantillonnage de la grille tient toujours). Pour voir ce que je veux dire, prenez une image et faites-la pivoter par incréments de 1 degré. Le tranchant sera désormais (légèrement) flou à cause de l'échantillonnage nécessaire pour effectuer de petites rotations.
L'échantillonnage de Bayer n'est peut-être qu'une erreur d'échantillonnage spatial avec laquelle nous devons vivre. C'est l'un des gros tirages (peut-être le seul vrai tirage) du capteur Foveon. Chaque pixel a des mesures de la couleur à cet endroit, plutôt que d'obtenir les autres couleurs des pixels voisins. J'ai un dp2, et je dois dire que les couleurs sont assez étonnantes par rapport à mon d300. La convivialité, pas tellement.
Les artefacts de compression sont un autre exemple d'erreur spatiale. Compressez une image plusieurs fois (ouvrez un fichier jpg, enregistrez-le à un autre emplacement, fermez, rouvrez, rincez, répétez) et vous verrez ce que je veux dire ici, en particulier à 75% de compression.
Des erreurs d'espace colorimétrique sont introduites lorsque vous passez d'un espace colorimétrique à l'autre. Si vous prenez un png (sans perte) et le déplacez d'un espace colorimétrique à un autre, enregistrez-le. Revenez ensuite à l'espace colorimétrique d'origine, vous verrez quelques différences subtiles où les couleurs d'un espace ne correspondaient pas à l'autre.
Lorsque je traite des photos, ma commande est généralement la suivante:
- réduction de bruit
- amélioration du contraste, expositions, etc.
- rotations
- espace colorimétrique
- compression finale pour produire l'image.
Et je garde toujours le brut.