"Quelle est la manière correcte le plus théorique / physique-théorique de calculer l'entropie d'une image?"
Une excellente et opportune question.
Contrairement à la croyance populaire, il est en effet possible de définir intuitivement (et théoriquement) l'entropie naturelle d'informations pour une image.
Considérez la figure suivante:
Nous pouvons voir que l'image différentielle a un histogramme plus compact, donc son entropie d'information de Shannon est plus faible. Nous pouvons donc obtenir une redondance plus faible en utilisant l'entropie de Shannon du second ordre (c'est-à-dire l'entropie dérivée de données différentielles). Si nous pouvons étendre cette idée de manière isotrope en 2D, alors nous pourrions nous attendre à de bonnes estimations pour l'entropie des informations d'image.
Un histogramme bidimensionnel de gradients permet l'extension 2D.
Nous pouvons formaliser les arguments et, en fait, cela a été achevé récemment. Récapitulant brièvement:
L'observation selon laquelle la définition simple (voir par exemple la définition MATLAB de l'entropie d'image) ignore la structure spatiale est cruciale. Pour comprendre ce qui se passe, il convient de revenir brièvement sur le cas 1D. On sait depuis longtemps que l'utilisation de l'histogramme d'un signal pour calculer ses informations / entropie de Shannon ignore la structure temporelle ou spatiale et donne une mauvaise estimation de la compressibilité ou de la redondance inhérente au signal. La solution était déjà disponible dans le texte classique de Shannon; utiliser les propriétés du second ordre du signal, c'est-à-dire les probabilités de transition. L’observation de 1971 (Rice & Plaunt) que le meilleur prédicteur d'une valeur de pixel dans une numérisation raster est la valeur du pixel précédent conduit immédiatement à un prédicteur différentiel et à une entropie de Shannon du second ordre qui s'aligne avec des idées de compression simples telles que l'encodage de la longueur d'exécution. Ces idées ont été affinées à la fin des années 80, ce qui a donné lieu à certaines techniques classiques de codage sans perte (différentielle) qui sont toujours utilisées (PNG, JPG sans perte, GIF, JPG 2000 sans perte) tandis que les ondelettes et les DCT ne sont utilisés que pour le codage avec perte.
Passons maintenant à 2D; les chercheurs ont trouvé très difficile d'étendre les idées de Shannon à des dimensions plus élevées sans introduire une dépendance d'orientation. Intuitivement, on pourrait s'attendre à ce que l'entropie d'information de Shannon d'une image soit indépendante de son orientation. Nous nous attendons également à ce que les images avec une structure spatiale complexe (comme l'exemple de bruit aléatoire du questionneur) aient une entropie d'information plus élevée que les images avec une structure spatiale simple (comme l'exemple de l'échelle de gris lisse du questionneur). Il s'avère que la raison pour laquelle il était si difficile d'étendre les idées de Shannon de 1D à 2D est qu'il existe une asymétrie (unilatérale) dans la formulation originale de Shannon qui empêche une formulation symétrique (isotrope) en 2D. Une fois l'asymétrie 1D corrigée, l'extension 2D peut se dérouler facilement et naturellement.
Couper au but (les lecteurs intéressés peuvent consulter l'exposé détaillé dans la préimpression arXiv à https://arxiv.org/abs/1609.01117 ) où l'entropie d'image est calculée à partir d'un histogramme 2D de gradients (fonction de densité de probabilité de gradient).
Tout d'abord, le pdf 2D est calculé par des estimations de binning des images dérivées x et y. Cela ressemble à l'opération de binning utilisée pour générer l'histogramme d'intensité le plus courant dans 1D. Les dérivées peuvent être estimées par des différences finies de 2 pixels calculées dans les directions horizontale et verticale. Pour une image carrée NxN f (x, y), nous calculons les valeurs NxN des dérivées partielles fx et les valeurs NxN de fy. Nous parcourons l'image différentielle et pour chaque pixel que nous utilisons (fx, fy) pour localiser un bac discret dans le tableau de destination (pdf 2D) qui est ensuite incrémenté de un. Nous répétons pour tous les pixels NxN. Le pdf 2D résultant doit être normalisé pour avoir une probabilité unitaire globale (la simple division par NxN permet cela). Le pdf 2D est maintenant prêt pour la prochaine étape.
Le calcul de l'entropie d'information de Shannon 2D à partir du pdf de gradient 2D est simple. La formule de sommation logarithmique classique de Shannon s'applique directement, sauf pour un facteur crucial de moitié qui provient de considérations d'échantillonnage limitées par la bande spéciale pour une image en dégradé (voir l'article arXiv pour plus de détails). Le demi-facteur rend l'entropie 2D calculée encore plus faible par rapport à d'autres méthodes (plus redondantes) d'estimation de l'entropie 2D ou de la compression sans perte.
Je suis désolé de ne pas avoir écrit les équations nécessaires ici, mais tout est disponible dans le texte préimprimé. Les calculs sont directs (non itératifs) et la complexité de calcul est d'ordre (le nombre de pixels) NxN. L'entropie d'information de Shannon calculée finale est indépendante de la rotation et correspond précisément au nombre de bits requis pour coder l'image dans une représentation en gradient non redondante.
Soit dit en passant, la nouvelle mesure d'entropie 2D prédit une entropie (agréablement intuitive) de 8 bits par pixel pour l'image aléatoire et de 0,000 bits par pixel pour l'image à gradient lisse dans la question d'origine.