Le problème Je veux ajuster les paramètres du modèle d'une population de mélange 2-gaussien simple. Étant donné tout le battage médiatique autour des méthodes bayésiennes, je veux comprendre si pour ce problème l'inférence bayésienne est un meilleur outil que les méthodes d'ajustement traditionnelles. Jusqu'à présent, MCMC fonctionne très mal dans …
Je travaille sur pas mal de modélisation statistique, comme les modèles de Markov cachés et les modèles de mélanges gaussiens. Je vois que la formation de bons modèles dans chacun de ces cas nécessite une grande quantité (> 20000 phrases pour les HMM) de données qui sont extraites d'environnements similaires …
J'essaie d'adapter un modèle à temps discret dans R, mais je ne sais pas comment le faire. J'ai lu que vous pouvez organiser la variable dépendante dans différentes lignes, une pour chaque observation de temps, et utiliser la glmfonction avec un lien logit ou cloglog. En ce sens, j'ai trois …
Je suis novice dans l'utilisation des GMM. Je n'ai pas pu trouver d'aide en ligne appropriée. Quelqu'un pourrait-il me fournir la bonne ressource sur "Comment décider si l'utilisation de GMM convient à mon problème?" ou en cas de problèmes de classification "Comment décider si je dois utiliser la classification SVM …
J'essaie d'implémenter le modèle de mélange gaussien avec l'inférence variationnelle stochastique, à la suite de cet article . C'est le pgm du mélange gaussien. Selon l'article, l'algorithme complet d'inférence variationnelle stochastique est: Et je suis encore très confus de la méthode pour l'adapter à GMM. Tout d'abord, je pensais que …
J'étudie le modèle du mélange gaussien et je pose cette question moi-même. Supposons que les données sous-jacentes soient générées à partir d'un mélange de distribution gaussienne et que chacune d'elles ait un vecteur moyen μ k ∈ R p , où 1 ≤ k ≤ K et chacune d'elles ait …
Je veux simuler un échantillon d'une distribution normale de mélange telle que p × N(μ1,σ21) + ( 1 - p ) × N(μ2,σ22)p×N(μ1,σ12)+(1−p)×N(μ2,σ22)p\times\mathcal{N}(\mu_1,\sigma_1^2) + (1-p)\times\mathcal{N}(\mu_2,\sigma_2^2) est limité à l'intervalle au lieu de . Cela signifie que je veux simuler un mélange tronqué de distributions normales.[ 0 , 1 ][0,1][0,1]RR\mathbb{R} Je …
Nous étudions souvent le modèle de mélange gaussien comme un modèle utile dans l'apprentissage automatique et ses applications. Quelle est la signification physique de ce " mélange "? Est-il utilisé parce qu'un modèle de mélange gaussien modélise la probabilité d'un certain nombre de variables aléatoires ayant chacune sa propre valeur …
Soit f [x] un mélange gaussien pdf avec n termes de poids uniforme, signifie , et les variances correspondantes :{μ1,...,μn}{μ1,...,μn}\{\mu_{1},...,\mu_{n}\}{σ1,...,σn}{σ1,...,σn}\{\sigma_{1},...,\sigma_{n}\} f(x)≡1n∑i=1n12πσ2i−−−−√e−(x−μi)22σ2if(x)≡1n∑i=1n12πσi2e−(x−μi)22σi2f(x)\equiv\frac{1}{n}\sum_{i=1}^{n}\frac{1}{\sqrt{2\pi\sigma_{i}^{2}}}e^{-\frac{(x-\mu_{i})^{2}}{2\sigma_{i}^{2}}} Il semble intuitif que la log-liklihood échantillonnée aux n centres gaussiens serait supérieure (ou égale) à la log-liklihood moyenne: 1n∑j=1nln(f(μj))≥∫f(x)ln(f(x))dx1n∑j=1nln(f(μj))≥∫f(x)ln(f(x))dx\frac{1}{n}\sum_{j=1}^{n}ln(f(\mu_{j}))\geq\int f(x)ln(f(x))dx C'est évidemment vrai pour les petites variances (chaque …
J'ai un ensemble de données contenant l'activité de l'utilisateur avec 168 dimensions, où je veux extraire des clusters en utilisant un apprentissage non supervisé. Il n'est pas évident pour moi d'utiliser une approche de modélisation de sujet dans l'allocation de Dirichlet latent (LDA) ou les modèles de mélange gaussiens (GMM), …
Mon objectif est de voir que l'algorithme K-means est en fait un algorithme d'expectation-maximisation pour les mélanges gaussiens dans lequel toutes les composantes ont une covariance dans la limite comme .σ2Iσ2I\sigma^2 Ilimσ→0limσ→0\lim_{\sigma \to 0} Supposons que nous ayons un ensemble de données {x1,…,xN}{x1,…,xN}\{x_1, \dots ,x_N\} des observations de variable aléatoire …
Dans les méthodes de clustering telles que K-means , la distance euclidienne est la métrique à utiliser. Par conséquent, nous calculons uniquement les valeurs moyennes au sein de chaque cluster. Et puis des ajustements sont effectués sur les éléments en fonction de leur distance à chaque valeur moyenne. Je me …
Je travaille sur un modèle d'apprentissage de catégorie en ligne qui utilise la descente de gradient stochastique pour s'adapter à un modèle de mélange gaussien. Le modèle est basé sur le modèle d'apprentissage en ligne utilisé dans Toscano et McMurray (2010). Bien que la descente de gradient semble fonctionner assez …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.