Heuristique, la fonction de densité de probabilité sur avec entropie maximale se révèle être celui qui correspond à un minimum de connaissances de { x 1 , x 2 , . . , . x n } , c'est-à-dire la distribution uniforme.{x1,x2,..,.xn}{x1,x2,..,.xn}
Maintenant, pour une preuve plus formelle, considérez ce qui suit:
Une fonction de densité de probabilité sur est un ensemble de nombres réels non négatifs p 1 , . . . , P n qui ajoutent à 1. L' entropie est une fonction continue des n - uplets ( p 1 , . . . 1 /{x1,x2,..,.xn}p1, . . . , pnn , et ces points se trouvent dans un sousensemble compact de R n ,sorte qu'il est un n( p1, . . . , pn)Rnn uplet où l' entropie est maximisée. Nous voulons montrer que cela se produit à et nulle part ailleurs.( 1 / n , . . . , 1 / n )
Supposons que les ne soient pas tous égaux, disons p 1 < p 2 . (Clairement n ≠ 1. ) Nous trouverons une nouvelle densité de probabilité avec une entropie plus élevée. Il s'ensuit alors, puisque l'entropie est maximisée à un certain n- tuple, que l'entropie est maximisée uniquement au n- tuple avec p i = 1 / n pour tout i .pjp1< p2n ≠ 1nnpje= 1 / nje
Puisque , pour les petits ε positifs, nous avons p 1 + ε < p 2 - ε . L'entropie de { p 1 + ε , p 2 - ε , p 3 , . . . , P n } moins l'entropie de { p 1 , p 2 , p 3 , . . . , pp1< p2εp1+ ε < p2- ε{ p1+ ε , p2- ε , p3, . . . , pn} est égal{ p1, p2, p3, . . . , pn}
Pour compléter la preuve, nous voulons montrer que cela est positif pour suffisamment petitε. Réécrivez l'équation ci-dessus comme
-p1log(1+ε
- p1bûche( p1+ εp1) -εlog( p1+ ε ) - p2bûche( p2- εp2) +εlog( p2- ε )
ε- p1bûche( 1 + εp1) -ε ( logp1+ journal( 1 + εp1))−p2log(1−εp2)+ε(logp2+log(1−εp2))
Rappelant que pour les petits x , l'équation ci-dessus est
- ε - ε log p 1 + ε + ε log p 2 + O ( ε 2 ) = ε log ( p 2 / p 1 ) + O ( ε 2 )
qui est positif lorsquelog(1+x)=x+O(x2)x
−ε−εlogp1+ε+εlogp2+O(ε2)=εlog(p2/p1)+O(ε2)
est suffisamment petit puisque
p 1 < p 2 .
εp1<p2
Une preuve moins rigoureuse est la suivante:
Considérons d'abord le lemme suivant:
p(x)q(x)Ip≥0q>0I
−∫Iplogpdx≤−∫Iplogqdx
p(x)=q(x)x
p{x1,...,xn}pi=p(xi)qi=1/ni
−∑i=1npilogqi=∑i=1npilogn=logn
qh(p)≤h(q), with equality if and only if
p is uniform.
Also, wikipedia has a brief discussion on this as well: wiki