J'ai récemment lu cet article sur l'entropie d'une distribution de probabilité discrète. Il décrit une belle façon de penser à l'entropie comme les bits numériques attendus (au moins lors de l'utilisation de dans votre définition d'entropie) nécessaires pour coder un message lorsque votre codage est optimal, compte tenu de la distribution de probabilité des mots que vous utilisez.
Cependant, en étendant au cas continu comme ici, je crois que cette façon de penser tombe en panne, car pour toute distribution de probabilité continue (veuillez me corriger si c'est faux), donc je se demandait s'il y avait une belle façon de penser à ce que signifie l'entropie continue, tout comme avec le cas discret.