Je connais le travail de Shannon avec l'entropie, mais récemment j'ai travaillé sur des structures de données succinctes dans lesquelles l' entropie empirique est souvent utilisée dans le cadre de l'analyse du stockage.
Shannon a défini l'entropie des informations produites par une source d'informations discrète comme , où est la probabilité que l'événement se produise, par exemple un caractère spécifique généré, et il y a événements possibles.
Comme le souligne MCH dans les commentaires, l' entropie empirique est l'entropie de la distribution empirique de ces événements, et est donc donnée par oùest le nombre d'occurrences observées de l'événementetest le nombre total d'événements observés. C'est ce qu'on appellel'entropie empirique d'ordre zéro. La notion d'entropie conditionnellede Shannona uneversion empiriquesimilaired'ordre supérieur.
Shannon n'a pas utilisé le terme entropie empirique, bien qu'il mérite certainement une partie du crédit pour ce concept. Qui a utilisé cette idée en premier et qui a utilisé le nom (très logique) d' entropie empirique pour la décrire?