Comment l'entropie dépend-elle de l'emplacement et de l'échelle?


14

L' entropie d'une distribution continue avec la fonction de densité f est définie comme étant le négatif de l'espérance de log(f), et est donc égale à

Hf=log(f(x))f(x)dx.

On dit aussi que toute variable aléatoire X dont la distribution a la densité f a l'entropie Hf. (Cette intégrale est bien définie même lorsque f a des zéros, car log(f(x))f(x) peut être pris égal à zéro à de telles valeurs.)

Lorsque X et Y sont des variables aléatoires pour lesquelles Y=X+μ ( μ est une constante), Y est dit être une version de X décalée de μ. De même, lorsque Y=Xσ ( σ est une constante positive), Y est dit être une version de X mise à l'échelle par σ.La combinaison d'une échelle avec un décalage donne Y=Xσ+μ.

Ces relations se produisent fréquemment. Par exemple, la modification des unités de mesure de X décale et la met à l'échelle.

Comment l'entropie de Y=Xσ+μ liée à celle de X?

Réponses:


17

Puisque l'élément de probabilité de X est f(x)dx, le changement de la variable y=xσ+μ est équivalent à x=(yμ)/σ,

f(x)dx=f(yμσ)d(yμσ)=1σf(yμσ)dy

il s'ensuit que la densité de Y est

fY(y)=1σf(yμσ).

Par conséquent, l'entropie de Y est

H(Y)=log(1σf(yμσ))1σf(yμσ)dy

qui, en remettant la variable à x=(yμ)/σ, produit

H(Y)=log(1σf(x))f(x)dx=(log(1σ)+log(f(x)))f(x)dx=log(σ)f(x)dxlog(f(x))f(x)dx=log(σ)+Hf.

f(x)dx

La conclusion est

Y=Xσ+μXlog(σ).

σ1log(σ).


μσ(μ,σ)μ=0σ=1.

log(f(x))=12log(2π)x2/2,

D'où

H=E[12log(2π)X2/2]=12log(2π)+12.

(μ,σ)logσ

H=12log(2π)+12+log(σ)=12log(2πeσ2)

tel que rapporté par Wikipedia .

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.