Questions marquées «variational-bayes»

Les méthodes bayésiennes variationnelles approchent les intégrales insolubles trouvées dans l'inférence bayésienne et l'apprentissage automatique. Principalement, ces méthodes servent l'un des deux objectifs suivants: approximer la distribution postérieure ou limiter la probabilité marginale des données observées.


1
Inférence variationnelle versus MCMC: quand choisir l'un plutôt que l'autre?
Je pense que j'ai une idée générale de VI et de MCMC, y compris les différentes saveurs de MCMC telles que l’échantillonnage de Gibbs, Metropolis Hastings, etc. Ce document fournit un magnifique exposé des deux méthodes. J'ai les questions suivantes: Si je souhaite faire l'inférence bayésienne, pourquoi choisirais-je une méthode …



1
Que sont les auto-encodeurs variationnels et à quelles tâches d'apprentissage sont-ils utilisés?
Selon ceci et cette réponse, les auto-encodeurs semblent être une technique qui utilise des réseaux de neurones pour réduire les dimensions. Je voudrais en outre savoir ce qu'est un autoencodeur variationnel (ses principales différences / avantages par rapport à un autoencodeur "traditionnel") et aussi quelles sont les principales tâches d'apprentissage …

4
Quand dois-je utiliser un encodeur automatique variationnel par opposition à un encodeur automatique?
Je comprends la structure de base de l'autoencodeur variationnel et de l'autoencodeur normal (déterministe) et les mathématiques qui les sous-tendent, mais quand et pourquoi préférerais-je un type d'autoencodeur à l'autre? Tout ce que je peux penser, c'est que la distribution préalable des variables latentes de l'autoencodeur variationnel nous permet d'échantillonner …



1
Inférence variationnelle, la divergence KL nécessite un vrai
À ma compréhension (très modeste) de l'inférence variationnelle, on essaie d'approximer une distribution inconnue ppp en trouvant une distribution qqq qui optimise ce qui suit: KL(p||q)=∑xp(x)logp(x)q(x)KL(p||q)=∑xp(x)logp(x)q(x)KL (p||q) = \sum\limits_{x} p(x)log \frac {p(x)}{q(x)} Chaque fois que j'investis du temps dans la compréhension de l'inférence variationnelle, je continue à appuyer sur cette …

1
Quelle est la différence entre la VAE et la rétropropagation stochastique pour les modèles génératifs profonds?
Quelle est la différence entre l' encodage bayésien variationnel automatique et la rétropropagation stochastique pour les modèles génératifs profonds ? L'inférence dans les deux méthodes conduit-elle aux mêmes résultats? Je ne suis au courant d'aucune comparaison explicite entre les deux méthodes, malgré le fait que les deux groupes d'auteurs se …


1
Bayes variationnels combinés avec Monte Carlo
Je lis sur les Bayes variationnels, et si je comprends bien, cela revient à l'idée que vous approximez (où z sont les variables latentes de votre modèle et les données observées) avec une fonction , en faisant l'hypothèse que factorise comme où est un sous-ensemble des variables latentes. On peut …

2
Estimation de l'incertitude dans les problèmes d'inférence à haute dimension sans échantillonnage?
Je travaille sur un problème d'inférence de grande dimension (environ 2000 paramètres de modèle) pour lequel nous sommes capables d'effectuer de manière robuste une estimation MAP en trouvant le maximum global du log-postérieur en utilisant une combinaison d'optimisation basée sur un gradient et un algorithme génétique. J'aimerais beaucoup pouvoir faire …

2
Application de l'inférence variationnelle stochastique au mélange bayésien de gaussien
J'essaie d'implémenter le modèle de mélange gaussien avec l'inférence variationnelle stochastique, à la suite de cet article . C'est le pgm du mélange gaussien. Selon l'article, l'algorithme complet d'inférence variationnelle stochastique est: Et je suis encore très confus de la méthode pour l'adapter à GMM. Tout d'abord, je pensais que …


En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.