J'essaie de mesurer maintenant beaucoup d'informations non redondantes (réelles) que contient mon fichier. Certains appellent cela la quantité d'entropie.
Bien sûr, il existe le journal standard p (x) {p (x)}, mais je pense que Shannon ne le considérait que du point de vue de la transmission via un canal. Par conséquent, la formule nécessite une taille de bloc (disons en bits, 8 généralement). Pour un fichier volumineux, ce calcul est assez inutile, ignorant les corrélations de courte à longue distance entre les symboles.
Il existe des méthodes d'arbre binaire et de Ziv-Lempel, mais elles semblent de nature très académique.
La compressibilité est également considérée comme une mesure de l'entropie, mais il ne semble pas y avoir de limite inférieure quant au degré de compression. Pour mon fichier hiss.wav,
- hiss.wav d'origine = 5,2 Mo
- entropie via la formule de Shannon = 4,6 Mo
- hiss.zip = 4,6 Mo
- sifflement.7z = 4,2 Mo
- hiss.wav.fp8 = 3,3 Mo
Existe-t-il une méthode raisonnablement praticable pour mesurer la quantité d'entropie qui existe dans hiss.wav?