Réponses:
La couverture et le livre de Thomas Elements of Information Theory sont une bonne source sur l'entropie et ses applications, bien que je ne sache pas qu'il traite exactement les problèmes que vous avez en tête.
Ces notes de cours sur la théorie de l'information par O. Johnson contiennent une bonne introduction à différents types d'entropie.
Si vous êtes intéressé par la statistique mathématique autour de l'entropie, vous pouvez consulter ce livre
http://www.renyi.hu/~csiszar/Publications/Information_Theory_and_Statistics:_A_Tutorial.pdf
il est disponible gratuitement!
L'entropie n'est qu'un (en tant que concept) - la quantité d'informations nécessaires pour décrire un système; il n'y a que beaucoup de généralisations. L'échantillon d'entropie n'est qu'un descripteur de type entropique utilisé dans l'analyse de la fréquence cardiaque.
L'article de Grünwald et Dawid Théorie des jeux, entropie maximale, divergence minimale et solide théorie de la décision bayésienne discutent des généralisations de la notion traditionnelle d'entropie. Étant donné une perte, sa fonction d'entropie associée est le mappage d'une distribution à la perte attendue minimale réalisable pour cette distribution. La fonction d'entropie habituelle est l'entropie généralisée associée à la perte de log. D'autres choix de pertes produisent une entropie différente telle que l'entropie de Rényi.