L'entropie vous dit combien d'incertitude existe dans le système. Supposons que vous cherchiez un chat et que vous sachiez qu'il se situe quelque part entre votre maison et vos voisins, à 1,5 km. Vos enfants vous disent que la distribution bêta décrit le mieux la probabilité qu'un chat se trouve à une distance chez vous . Donc, un chat peut être n'importe où entre 0 et 1, mais plus susceptible d'être au milieu, c'est-à-dire .x f(x;2,2)xmax=1/2
Connectons la distribution beta à votre équation, vous obtenez alors .H=−0.125
Ensuite, vous demandez à votre femme et elle vous dit que la meilleure distribution pour décrire sa connaissance de votre chat est la distribution uniforme. Si vous le branchez à votre équation d'entropie, vous obtenez .H=0
Les distributions de l'uniforme et de la bêta laissent le chat se trouver entre 0 et 1 km de chez vous, mais l'uniforme est plus incertain, car votre femme n'a aucune idée de l'endroit où se cache le chat, alors que les enfants ont une idée , ils pensent que c'est plus susceptible d'être quelque part au milieu. C'est pourquoi l'entropie de Beta est inférieure à celle de Uniform.
Vous pouvez essayer d'autres distributions, peut-être votre voisin vous dit-il que le chat aime être près de l'une des maisons, sa distribution bêta est donc avec . Son doit être à nouveau inférieur à celui de l'uniforme, car vous avez une idée de l'endroit où chercher un chat. Devinez si l'entropie des informations de votre voisin est supérieure ou inférieure à celle de vos enfants? Je parierais sur les enfants n'importe quel jour sur ces questions.α=β=1/2H
MISE À JOUR:
Comment cela marche-t-il? Une façon de penser à cela est de commencer par une distribution uniforme. Si vous êtes d’accord pour dire que c’est celui qui suscite le plus d’incertitude, songez à le déranger. Regardons le cas discret pour plus de simplicité. Prenez d'un point et ajoutez-le à un autre comme suit:
Δp
p′i=p−Δp
p′j=p+Δp
Maintenant, nous allons voir comment les changements d' entropie:
Cela signifie que toute perturbation de la distribution uniforme réduit l'entropie (incertitude). Pour montrer la même chose en casse continue, je devrais utiliser le calcul des variations ou quelque chose du même ordre, mais vous obtiendrez le même genre de résultat, en principe.
H−H′=pilnpi−piln(pi−Δp)+pjlnpj−pjln(pj+Δp)
=plnp−pln[p(1−Δp/p)]+plnp−pln[p(1+Δp/p)]
=−ln(1−Δp/p)−ln(1+Δp/p)>0
MISE À JOUR 2: La moyenne de variables aléatoires uniformes est une variable aléatoire elle-même, qui provient de la distribution de Bates . D'après CLT, nous savons que la variance de cette nouvelle variable aléatoire diminue de . Donc, l'incertitude de son emplacement doit diminuer avec l'augmentation de : nous sommes de plus en plus sûrs qu'un chat est au centre. Mon prochain graphique et le code MATLAB montrent comment l'entropie décroît de 0 pour (distribution uniforme) à . J'utilise la bibliothèque de distributions31 ici.nn→∞nn=1n=13
x = 0:0.01:1;
for k=1:5
i = 1 + (k-1)*3;
idx(k) = i;
f = @(x)bates_pdf(x,i);
funb=@(x)f(x).*log(f(x));
fun = @(x)arrayfun(funb,x);
h(k) = -integral(fun,0,1);
subplot(1,5+1,k)
plot(x,arrayfun(f,x))
title(['Bates(x,' num2str(i) ')'])
ylim([0 6])
end
subplot(1,5+1,5+1)
plot(idx,h)
title 'Entropy'