Supposons que est un ensemble de résultats mutuellement exclusifs d'une variable aléatoire discrète et est une fonction d'utilité où , , etc.
Lorsque est uniformément distribué sur et est une fonction de masse de probabilité , l'entropie de Shannon est maximisée (, et lorsqu'un élément dea toutela massede, l'entropie de Shannon est minimisée (, en fait). Cela correspond aux intuitions concernant lasurprise(ou laréduction de l'incertitude) et les résultats et l'incertitude(ou lasurprise attendue) et les variables aléatoires:
- Lorsque est uniformément distribué, l'incertitude est maximisée, et plus il y a de résultats pour que la masse soit uniformément répartie, plus nous sommes incertains.
- Lorsque a toute sa masse concentrée dans un seul résultat, nous n'avons aucune incertitude.
- Lorsque nous attribuons à un résultat une probabilité de , nous ne gagnons aucune information (ne sommes "pas surpris") lorsque nous l'observons réellement.
- Lorsque nous attribuons à un résultat une probabilité de plus en plus proche de , l'observation de sa survenance devient de plus en plus informative ("surprenante").
(Tout cela ne dit rien sur l'interprétation de codage beaucoup plus concrète - mais moins épistémique - des informations / entropie de Shannon, bien sûr.)
Cependant, lorsque a l'interprétation d'une fonction d'utilité , y a-t-il une interprétation sensorielle de ou∑f(ω)log1 ? Il me semble qu'il pourrait y avoir:
- si tant que PMF représente une distribution uniforme sur Ω , alors f en tant que fonction d'utilité correspond à une indifférence sur les résultats qui ne pourrait pas être supérieure *
- une fonction d'utilité où un résultat a toute l'utilité et les autres n'en a pas (aussi asymétrique qu'une utilité qu'il pourrait y en avoir) correspond à de très fortes préférences relatives - un manque d'indifférence.
Y a-t-il une référence à ce sujet? Ai-je oublié quelque chose sur les limites de la comparaison des fonctions de masse de probabilité et des utilitaires normalisés et relatifs sur des variables aléatoires discrètes?
* Je connais les courbes d'indifférence et je ne vois pas comment elles pourraient être pertinentes pour ma question pour diverses raisons, à commencer par ma concentration sur un espace d'échantillonnage catégorique et par le fait que je ne suis pas intéressé par `` l'indifférence '' en soi, mais plutôt comment interpréter les utilités comme des probabilités et comment interpréter les fonctionnelles sur les probabilités lorsque la `` distribution de probabilité '' (discrète) en question a réellement ou (en plus) l'interprétation d'une fonction d'utilité.