Lorsque l'on traite une fonction d'utilité relative normalisée comme un pmf, quelle est l'interprétation de l'entropie de Shannon ou de l'information de Shannon?


10

Supposons que Ω est un ensemble de résultats mutuellement exclusifs d'une variable aléatoire discrète et f est une fonction d'utilité où 0<f(ω)1 , Ωf(ω)=1 , etc.

Lorsque f est uniformément distribué sur Ω et f est une fonction de masse de probabilité , l'entropie de Shannon H(Ω)=Ωf(ω)log1f(ω) est maximisée (=log|Ω|), et lorsqu'un élément deΩa toutela massedef, l'entropie de Shannon est minimisée (0, en fait). Cela correspond aux intuitions concernant lasurprise(ou laréduction de l'incertitude) et les résultats et l'incertitude(ou lasurprise attendue) et les variables aléatoires:

  • Lorsque f est uniformément distribué, l'incertitude est maximisée, et plus il y a de résultats pour que la masse soit uniformément répartie, plus nous sommes incertains.
  • Lorsque f a toute sa masse concentrée dans un seul résultat, nous n'avons aucune incertitude.
  • Lorsque nous attribuons à un résultat une probabilité de 1 , nous ne gagnons aucune information (ne sommes "pas surpris") lorsque nous l'observons réellement.
  • Lorsque nous attribuons à un résultat une probabilité de plus en plus proche de 0 , l'observation de sa survenance devient de plus en plus informative ("surprenante").

(Tout cela ne dit rien sur l'interprétation de codage beaucoup plus concrète - mais moins épistémique - des informations / entropie de Shannon, bien sûr.)

Cependant, lorsque f a l'interprétation d'une fonction d'utilité , y a-t-il une interprétation sensorielle de ouf(ω)log1log1f(ω) ? Il me semble qu'il pourrait y avoir:f(ω)log1f(ω)

  • si tant que PMF représente une distribution uniforme sur Ω , alors f en tant que fonction d'utilité correspond à une indifférence sur les résultats qui ne pourrait pas être supérieure *fΩf
  • une fonction d'utilité où un résultat a toute l'utilité et les autres n'en a pas (aussi asymétrique qu'une utilité qu'il pourrait y en avoir) correspond à de très fortes préférences relatives - un manque d'indifférence.

Y a-t-il une référence à ce sujet? Ai-je oublié quelque chose sur les limites de la comparaison des fonctions de masse de probabilité et des utilitaires normalisés et relatifs sur des variables aléatoires discrètes?

* Je connais les courbes d'indifférence et je ne vois pas comment elles pourraient être pertinentes pour ma question pour diverses raisons, à commencer par ma concentration sur un espace d'échantillonnage catégorique et par le fait que je ne suis pas intéressé par `` l'indifférence '' en soi, mais plutôt comment interpréter les utilités comme des probabilités et comment interpréter les fonctionnelles sur les probabilités lorsque la `` distribution de probabilité '' (discrète) en question a réellement ou (en plus) l'interprétation d'une fonction d'utilité.


n

Réponses:


3

Avant de discuter l'entropie de Shannon, il y a un autre point qui devrait être discuté: il semble que vous ayez en tête l' utilité cardinale plutôt que ordinale .

Les fonctions utilitaires "normalisées" peuvent bien entendu être dérivées dans les deux cas. Mais le concept de «préférence relative» ne peut être défini et mesuré que dans le contexte de l'utilité cardinale.

Et le problème ne se pose pas aux deux extrêmes que vous décrivez, mais dans tous les cas intermédiaires possibles.

A,B,C

V(A)=1,V(B)=9,V(C)=90

Sous utilité ordinale, cela nous dit simplement que

A<prB<prC

100

UV(A)=0.01,UV(B)=0.09,UV(C)=0.9

Mais sous l'utilité ordinale, nous pourrions très bien utiliser une autre fonction utilitaire qui attribuerait

W(A)=31,W(B)=32,W(C)=37

et obtenir

UW(A)=0.31,UW(B)=0.32,UW(C)=0.37

VW

WV

Connaissez-vous les problèmes liés à l'utilité cardinale?


VU

3

Après l'échange avec le PO dans mon autre réponse, travaillons un peu avec son approche.

XX={x1,...,xk}Pr(X=xi)=pi,i=1,...,k

Les valeurs dans le support de sont également entrées dans une fonction d'utilité cardinale à valeur réelle, . Nous considérons ensuite la fonction d'utilité normaliséeXu(xi)>0i

(1)w(X):w(xi)=u(xi)i=1ku(xi),i=1,...,k

et on nous dit que

(2)w(xi)=pi

Notez que nous ne faisons pas seulement l'observation qu'une fonction discrète non négative normalisée du domaine fini, satisfait les propriétés d'une fonction de masse de probabilité en général - nous supposons spécifiquement que a la forme fonctionnelle de la PMF du hasard variable dont les valeurs prennent en entrée.w(xi)w(xi)

Puisque est une fonction mesurable d'une variable aléatoire, elle aussi est une variable aléatoire. Nous pouvons donc considérer de manière significative des choses comme sa valeur attendue. En utilisant la loi du statisticien inconscient, nous avonsw(xi)

(3)E[w(X)]=i=1kpiw(xi)=i=1kpi2

Il s'agit d'une fonction convexe, et si nous essayons de l'extrémiser sur les sous la contrainte nous obtenons facilementpii=1kpi=1

(4)argminE[w(X)]=p:p1=p2=...=pk=1/k

et nous avons obtenu un résultat général:

La fonction d'utilité normalisée telle que définie ci-dessus a une valeur minimale attendue si la distribution de est uniforme.X

De toute évidence, dans un tel cas, sera une fonction constante , une variable aléatoire dégénérée avec et une variance nulle.w(X) E[w(X)]=1/k

Passons à l'entropie de Shannon, qui est au centre de l'OP. Pour être calculée, l'entropie de Shannon a besoin de la fonction de masse de probabilité de la variable aléatoire ... nous devons donc trouver la PMF de la variable aléatoire ... w(X)

Mais j'ai l'impression que ce n'est pas ce que le PO a en tête. Au contraire, il considère l'entropie de Shannon comme une métrique qui possède des propriétés algébriques souhaitables et peut peut-être mesurer de manière compacte de manière significative quelque chose d'intérêt.

Cela a été fait auparavant en économie, en particulier en organisation industrielle, où des indices de concentration du marché ("degré de concurrence / structure monopolistique d'un marché") ont été construits. J'en note deux qui semblent particulièrement pertinentes ici.

A) L' indice Herfindahl a comme arguments les parts de marché des sociétés opérant sur un marché, , de sorte qu'elles se résument à l'unité par construction. Sa version non mise à l'échelle estnsi

H=i=1nsi2

qui est une expression qui a exactement la même structure avec la valeur attendue de dérivée ci-dessus.w(X)

B) L' index d'entropie qui a la forme mathématique exacte avec l'entropie de Shannon.

Re=i=1nsilnsi

Encaoua, D. et Jacquemin, A. (1980). Degré de monopole, indices de concentration et menace d'entrée. Revue économique internationale, 87-105. , fournissent une dérivation axiomatique d'indices de concentration "admissibles", c'est-à-dire qu'ils définissent les propriétés qu'un tel indice doit posséder. Comme leur approche est abstraite, je pense qu'elle peut être utile à ce que le PO souhaite explorer et y attacher du sens.


1

Il semble que la fonction d'utilité n'est pas seulement cardinale ici, mais même définie sur une échelle de rapport. Considérez deux résultats avec les utilitaires 1/4 et 3/4. Il est clair que nous pouvons appliquer la transformation affine: auquel cas les utilitaires deviennent 0 et 1. Cependant, nous avons maintenant changé l'entropie d'une valeur strictement positive à zéro!v=v20.5

Ainsi, vous devez d'abord fournir une échelle de rapport significative à votre service public. Une façon de procéder consiste à donner une interprétation du niveau d'utilité naturel 0. Sans cette spécification, l'entropie n'a pas de sens.

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.