Selon Wikipedia :
L'entropie de Shannon mesure les informations contenues dans un message par opposition à la partie du message qui est déterminée (ou prévisible). Des exemples de ces derniers incluent la redondance dans la structure du langage ou les propriétés statistiques relatives aux fréquences d'occurrence de paires de lettres ou de mots, de triplets, etc.
L'entropie est donc une mesure de la quantité d'informations contenues dans un message. Les codeurs entropiques sont utilisés pour compresser sans perte un tel message au nombre minimal de bits nécessaire pour le représenter (entropie). Pour moi, cela ressemble à un encodeur d'entropie parfait serait tout ce qui est nécessaire pour compresser sans perte un message autant que possible.
Cependant, de nombreux algorithmes de compression utilisent des étapes avant le codage entropique pour réduire supposément l'entropie du message.
Selon Wikipedia allemand
Entropiekodierer werden häufig mit anderen Kodierern kombiniert. Dabei dienen vorgeschaltete Verfahren dazu, Entropie de la recherche des données.
En anglais:
Les codeurs entropiques sont fréquemment combinés avec d'autres codeurs. Les étapes précédentes servent à réduire l'entropie des données.
C'est-à-dire que bzip2 utilise la transformation Burrows-Wheeler-Transform suivie par une transformation Move-To-Front-Transform avant d'appliquer le codage entropique (codage de Huffman dans ce cas).
Ces étapes réduisent-elles réellement l'entropie du message, ce qui impliquerait une réduction de la quantité d'informations contenues dans le message? Cela me semble contradictoire, car cela signifierait que des informations ont été perdues lors de la compression, empêchant ainsi une décompression sans perte. Ou ne font-ils que transformer le message pour améliorer l'efficacité de l'algorithme de codage par entropie? Ou bien l'entropie ne correspond-elle pas directement à la quantité d'informations dans le message?