Je veux rendre la réponse de @ Glen_b plus explicite, voici une réponse supplémentaire simplement parce qu'elle ne correspondrait pas à un commentaire.
Le formalisme, etc. est bien expliqué dans les chapitres 11 et 12 du livre de Jaynes . Prendre la distribution uniforme en tant que mesure de base, la solution générale, comme @Glen_b déjà dit, est une gaussienne
Pour la variable non bornée, vous pouvez résoudre explicitement pour les multiplicateurs de Lagrange λ 1 et λ 2 en termes de valeurs de contrainte ( a1 , un 2 en l'article de Wikipedia). Avec un 1 = μ , un 2 = μ 2 + σ 2
f(x)∝N(x|−1/2λ1/λ2,−1/(2λ2))
λ1λ2a1,a2a1=μ,a2=μ2+σ2 , on obtient alors
, donc le gaussien
N standard
( x | μ , σ 2 ) .
λ1=μ/σ2,λ2=−0.5σ2N(x|μ,σ2)
Pour la variable bornée , I (et mathématique) ne peut plus résoudre explicitement pour λ 1 , 2 en raison du terme de fonction d'erreur qui apparaît lors du calcul de la fonction de partition ( 1 / c dans wikipedia). Cela signifie que les paramètres μ et σ 2 du gaussien tronqué ne sont pas la moyenne et la variance de la variable continue avec laquelle vous avez commencé. Il peut même arriver que pour x m i n = 0x>xminλ1,21/cμσ2xmin=0, le mode de la gaussienne est négatif! Bien sûr, les chiffres s'accordent tous à nouveau lorsque vous prenez .xmin→−∞
Si vous avez des valeurs concrètes pour , vous pouvez toujours résoudre pour λ 1 , 2 numériquement et brancher les solutions dans l'équation générale et vous avez terminé! Les valeurs de λ 1 , 2 du cas non borné peuvent être un bon point de départ pour le solveur numérique.a1,a2λ1,2λ1,2
Cette question est un doublon de /math/598608/what-is-the-maximum-entropy-distribution-for-a-continuous-random-variable-on-0