Ces sages messieurs,
Kotz, S., Kozubowski, TJ, et Podgorski, K. (2001). The Laplace Distribution and Generalizations: A Revisit with Applications to Communications, Economics, Engineering, and Finance (No. 183). Springer.
nous mettre au défi avec un exercice:
La preuve peut suivre la preuve théorique de l'information que la normale est l'entropie maximale pour une moyenne et une variance données. Plus précisément: Soit la densité de Laplace ci-dessus, et toute autre densité, mais ayant la même moyenne et la même déviation absolue. Cela signifie que l'égalité suivante est valable:g (F( x )g( x )
Eg( | X- c1| )=∫g( x ) | x - c1| réx = c2= ∫F( x ) | x - c1| réx = EF( | X- c1| )[ 1 ]
Considérons maintenant la
divergence de Kullback-Leibler des deux densités:
0 ≤ DKL( g| | F) = ∫g( x ) ln( g( x )F( x )) dx = ∫g( x ) lng( x ) dx - ∫g( x ) lnF( x ) dX[ 2 ]
La première intégrale est le négatif de l'entropie (différentielle) de , notons . La seconde intégrale est (en écrivant explicitement le pdf laplacien)g- h ( g)
∫g( x ) ln[ f( x ) ] dx = ∫g( x ) ln[ 12 c2exp{ - 1c2| x- c1| } ]dX
= ln[ 12 c2] ∫g( x ) dx - 1c2∫g( x ) | x - c1| réX
La première intégrale s'intègre à l'unité, et en utilisant également l'éq. on obtient
[ 1 ]
∫g( x ) ln[ f( x ) ] dx = - ln[ 2 c2] - 1c2∫F( x ) | x - c1| réx = - ( ln[ 2 c2] + 1 )
Mais c'est le négatif de l'entropie différentielle du laplacien, notons .
- h ( f)
L'insertion de ces résultats dans l'eq. nous avons
Puisque était arbitraire, cela prouve que le au-dessus de la densité laplacienne est l'entropie maximale parmi toutes les distributions avec les prescriptions ci-dessus.[ 2 ]
0 ≤ D ( g| | F) = - h ( g) - ( - h ( f) ) ⇒ h ( g) ≤ h ( f)
g