Questions marquées «expectation-maximization»

Un algorithme d'optimisation souvent utilisé pour l'estimation du maximum de vraisemblance en présence de données manquantes.



4
Séparer deux populations de l'échantillon
J'essaie de séparer deux groupes de valeurs d'un même ensemble de données. Je peux supposer que l'une des populations est normalement distribuée et représente au moins la moitié de la taille de l'échantillon. Les valeurs du second sont à la fois inférieures ou supérieures aux valeurs du premier (la distribution …

2
MLE signifie-t-il toujours que nous connaissons le PDF sous-jacent de nos données, et EM signifie-t-il que nous ne le savons pas?
J'ai quelques questions conceptuelles simples que j'aimerais clarifier concernant MLE (Maximum Lik vraisemblable Estimation), et quel lien il a, le cas échéant, avec EM (Expectation Maximization). Si je comprends bien, si quelqu'un dit "Nous avons utilisé le MLE", cela signifie-t-il automatiquement qu'il a un modèle explicite du PDF de ses …

2
Trouver le nombre de gaussiens dans un mélange fini avec le théorème de Wilks?
Supposons que j'ai un ensemble d'observations univariées indépendantes et distribuées de manière identique et deux hypothèses sur la façon dont été généré:xxxxxx H0H0H_0 : est tiré d'une distribution gaussienne unique avec une moyenne et une variance inconnues.xxx HAHAH_A : est tiré d'un mélange de deux Gaussiennes avec une moyenne, une …

2
Signification des probabilités de transition initiales dans un modèle de Markov caché
Quels sont les avantages de donner certaines valeurs initiales aux probabilités de transition dans un modèle de Markov caché? Finalement, le système les apprendra, alors quel est l'intérêt de donner des valeurs autres que aléatoires? L'algorithme sous-jacent fait-il une différence comme Baum – Welch? Si je connais très précisément les …




1
Comment rendre une matrice positive définie?
J'essaie d'implémenter un algorithme EM pour le modèle d'analyse factorielle suivant; Wj=μ+Baj+ejforj=1,…,nWj=μ+Baj+ejforj=1,…,nW_j = \mu+B a_j+e_j \quad\text{for}\quad j=1,\ldots,n où est un vecteur aléatoire à p dimensions, a j est un vecteur à q dimensions de variables latentes et B est une matrice pxq de paramètres.WjWjW_jajaja_jBBB En raison d'autres hypothèses utilisées pour …


2
Aide à la maximisation des attentes à partir du papier: comment inclure la distribution préalable?
La question est basée sur l'article intitulé: Reconstruction d'images en tomographie optique diffuse à l'aide du modèle couplé de transport et de diffusion radiatifs Lien de téléchargement Les auteurs appliquent l'algorithme EM avec régularisation de densité d'un vecteur inconnu pour estimer les pixels d'une image. Le modèle est donné parl1l1l_1μμ\mu …

1
Limitations de MCMC / EM? MCMC sur EM?
J'apprends actuellement des modèles bayésiens hiérarchiques en utilisant JAGS de R, et aussi pymc en utilisant Python ( "Méthodes bayésiennes pour les pirates" ). Je peux obtenir une certaine intuition de ce post : "vous vous retrouverez avec une pile de chiffres qui ressemble" comme si "vous aviez réussi à …



En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.