Questions marquées «maximum-entropy»

l'entropie maximale ou maxent est un principe statistique dérivé de la théorie de l'information. On pense que les distributions maximisant l'entropie (sous certaines contraintes) sont «au maximum non informatives» étant donné les contraintes. L'entropie maximale peut être utilisée à des fins multiples, telles que le choix du préalable, le choix du modèle d'échantillonnage ou la conception des expériences.

6
Pourquoi l'entropie est-elle maximisée lorsque la distribution de probabilité est uniforme?
Je sais que l'entropie est la mesure du caractère aléatoire d'un processus / variable et elle peut être définie comme suit. pour une variable aléatoire X∈X∈X \in set AAA : - H(X)=∑xi∈A−p(xi)log(p(xi))H(X)=∑xi∈A−p(xi)log⁡(p(xi))H(X)= \sum_{x_i \in A} -p(x_i) \log (p(x_i)) . Dans le livre sur l'entropie et la théorie de l'information de …

3
Réfutation basée sur l'entropie du paradoxe de la flèche en arrière bayésienne du temps de Shalizi?
Dans cet article , la talentueuse chercheuse Cosma Shalizi soutient que pour accepter pleinement une vision bayésienne subjective, il faut également accepter un résultat non physique selon lequel la flèche du temps (donnée par le flux d'entropie) devrait en fait reculer . Il s'agit principalement d'une tentative d'argumenter contre l'entropie …

3
Interprétation statistique de la distribution d'entropie maximale
J'ai utilisé le principe de l'entropie maximale pour justifier l'utilisation de plusieurs distributions dans divers contextes; cependant, je n'ai pas encore été en mesure de formuler une interprétation statistique, par opposition à une théorie de l'information, de l'entropie maximale. En d'autres termes, qu'est-ce que la maximisation de l'entropie implique sur …




2
Quelle est la fonction de densité de probabilité d'entropie maximale pour une variable continue positive de moyenne et d'écart type donnés?
Quelle est la distribution d'entropie maximale pour une variable continue positive, compte tenu de ses premier et deuxième moments? Par exemple, une distribution gaussienne est la distribution d'entropie maximale pour une variable non bornée, compte tenu de sa moyenne et de l'écart-type, et une distribution Gamma est la distribution d'entropie …


3
Estimateur du maximum de vraisemblance de la distribution conjointe, compte tenu uniquement des comptes marginaux
Soit une distribution conjointe de deux variables catégorielles , avec . Supposons que échantillons ont été tirés de cette distribution, mais nous ne recevons que les comptes marginaux, à savoir pour :px,ypx,yp_{x,y}X,YX,YX,Yx,y∈{1,…,K}x,y∈{1,…,K}x,y\in\{1,\ldots,K\}nnnj=1,…,Kj=1,…,Kj=1,\ldots,K Sj=∑i=1nδ(Xi=l),Tj=∑i=1nδ(Yi=j),Sj=∑i=1nδ(Xi=l),Tj=∑i=1nδ(Yi=j), S_j = \sum_{i=1}^{n}{\delta(X_i=l)}, T_j = \sum_{i=1}^{n}{\delta(Y_i=j)}, Quel est l'estimateur du maximum de vraisemblance pour , étant donné …



1
«Puisque est presque gaussien, son PDF peut être écrit comme…»
Petite question: pourquoi est-ce vrai ?? Longue question: Très simplement, j'essaie de comprendre ce qui justifie cette première équation. L'auteur du livre que je lis, (contexte ici si vous le souhaitez, mais pas nécessaire), affirme ce qui suit: En raison de l'hypothèse de quasi-gaussianité, nous pouvons écrire: p0(ξ)=Aϕ(ξ)exp(an+1ξ+(an+2+12)ξ2+∑i=1naiGi(ξ))p0(ξ)=Aϕ(ξ)exp(an+1ξ+(an+2+12)ξ2+∑i=1naiGi(ξ)) p_0(\xi) = …

1
Création d'un modèle de Markov à entropie maximale à partir d'un classificateur d'entropie maximale à entrées multiples existant
Je suis intrigué par le concept d'un modèle de Markov à entropie maximale (MEMM) et je songe à l'utiliser pour un marqueur de partie de la parole (POS). En ce moment, j'utilise un classificateur conventionnel d'entropie maximale (ME) pour baliser chaque mot individuel. Cela utilise un certain nombre de fonctionnalités, …

1
La distribution d'entropie maximale est-elle cohérente avec les distributions marginales données, la distribution du produit des marginaux?
Il existe généralement de nombreuses distributions conjointes cohérentes avec un ensemble connu de distributions marginales .P(X1=x1,X2=x2,...,Xn=xn)P(X1=x1,X2=x2,...,Xn=xn)P(X_1 = x_1, X_2 = x_2, ..., X_n = x_n)fi(xi)=P(Xi=xi)fi(xi)=P(Xi=xi)f_i(x_i) = P(X_i = x_i) De ces distributions conjointes, le produit est-il formé en prenant le produit des marginaux celui ayant l'entropie la plus élevée?∏ifi(xi)∏ifi(xi)\prod_i f_i(x_i) …

1
Les machines à vecteurs de support (SVM) sont la limite de température zéro de la régression logistique?
J'ai eu récemment une discussion rapide avec un ami bien informé qui a mentionné que les SVM sont la limite de température zéro de la régression logistique. La justification impliquait des polytopes marginaux et la dualité fenchel. Je n'ai pas pu suivre. Cette affirmation selon laquelle les SVM sont la …

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.