Existe-t-il des alternatives rapides à l'algorithme EM pour l'apprentissage de modèles avec des variables latentes (en particulier pLSA)? Je suis prêt à sacrifier la précision au profit de la vitesse.
Disons que j'ai une population de 50 millions de choses uniques, et je prends 10 millions d'échantillons (avec remplacement) ... Le premier graphique que j'ai joint montre combien de fois j'échantillonne la même "chose", ce qui est relativement rare que le la population est plus grande que mon échantillon. Cependant, …
J'essaie de séparer deux groupes de valeurs d'un même ensemble de données. Je peux supposer que l'une des populations est normalement distribuée et représente au moins la moitié de la taille de l'échantillon. Les valeurs du second sont à la fois inférieures ou supérieures aux valeurs du premier (la distribution …
J'ai quelques questions conceptuelles simples que j'aimerais clarifier concernant MLE (Maximum Lik vraisemblable Estimation), et quel lien il a, le cas échéant, avec EM (Expectation Maximization). Si je comprends bien, si quelqu'un dit "Nous avons utilisé le MLE", cela signifie-t-il automatiquement qu'il a un modèle explicite du PDF de ses …
Supposons que j'ai un ensemble d'observations univariées indépendantes et distribuées de manière identique et deux hypothèses sur la façon dont été généré:xxxxxx H0H0H_0 : est tiré d'une distribution gaussienne unique avec une moyenne et une variance inconnues.xxx HAHAH_A : est tiré d'un mélange de deux Gaussiennes avec une moyenne, une …
Quels sont les avantages de donner certaines valeurs initiales aux probabilités de transition dans un modèle de Markov caché? Finalement, le système les apprendra, alors quel est l'intérêt de donner des valeurs autres que aléatoires? L'algorithme sous-jacent fait-il une différence comme Baum – Welch? Si je connais très précisément les …
Mathématiquement, on voit souvent que les expressions et les algorithmes pour la maximisation des attentes (EM) sont souvent plus simples pour les modèles mixtes, mais il semble que presque tout (sinon tout) qui peut être résolu avec EM peut également être résolu avec MLE (par, disons, la méthode Newton-Raphson, pour …
Le modèle de régression de Poisson gonflé à zéro est défini pour un échantillon par et il suppose en outre que les paramètres et satisfontY i = { 0 avec probabilité p i + ( 1 - p i ) e - λ i k avec probabilité ( 1 - …
Quelqu'un peut-il préciser comment les modèles de Markov cachés sont liés à la maximisation des attentes? J'ai parcouru de nombreux liens mais je n'ai pas pu trouver une vue claire. Merci!
J'essaie d'implémenter un algorithme EM pour le modèle d'analyse factorielle suivant; Wj=μ+Baj+ejforj=1,…,nWj=μ+Baj+ejforj=1,…,nW_j = \mu+B a_j+e_j \quad\text{for}\quad j=1,\ldots,n où est un vecteur aléatoire à p dimensions, a j est un vecteur à q dimensions de variables latentes et B est une matrice pxq de paramètres.WjWjW_jajaja_jBBB En raison d'autres hypothèses utilisées pour …
Dans cette question populaire , une réponse très positive fait que MLE et Baum Welch sont séparés dans le montage HMM. Pour les problèmes de formation, nous pouvons utiliser les 3 algorithmes suivants: MLE (estimation de vraisemblance maximale), formation Viterbi (NE PAS confondre avec le décodage Viterbi), Baum Welch = …
La question est basée sur l'article intitulé: Reconstruction d'images en tomographie optique diffuse à l'aide du modèle couplé de transport et de diffusion radiatifs Lien de téléchargement Les auteurs appliquent l'algorithme EM avec régularisation de densité d'un vecteur inconnu pour estimer les pixels d'une image. Le modèle est donné parl1l1l_1μμ\mu …
J'apprends actuellement des modèles bayésiens hiérarchiques en utilisant JAGS de R, et aussi pymc en utilisant Python ( "Méthodes bayésiennes pour les pirates" ). Je peux obtenir une certaine intuition de ce post : "vous vous retrouverez avec une pile de chiffres qui ressemble" comme si "vous aviez réussi à …
J'étudie le modèle du mélange gaussien et je pose cette question moi-même. Supposons que les données sous-jacentes soient générées à partir d'un mélange de distribution gaussienne et que chacune d'elles ait un vecteur moyen μ k ∈ R p , où 1 ≤ k ≤ K et chacune d'elles ait …
J'ai un modèle de mélange dont je veux trouver l'estimateur du maximum de vraisemblance à partir d'un ensemble de données et d'un ensemble de données partiellement observées . J'ai mis en œuvre à la fois l'étape E (calcul de l'espérance de étant donné et les paramètres actuels ), et l'étape …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.