Questions marquées «mcmc»

Markov Chain Monte Carlo (MCMC) fait référence à une classe de méthodes pour générer des échantillons à partir d'une distribution cible en générant des nombres aléatoires à partir d'une chaîne de Markov dont la distribution stationnaire est la distribution cible. Les méthodes MCMC sont généralement utilisées lorsque des méthodes plus directes pour la génération de nombres aléatoires (par exemple la méthode d'inversion) sont irréalisables. La première méthode MCMC était l'algorithme Metropolis, plus tard modifié en l'algorithme Metropolis-Hastings.



1
Comment puis-je optimiser l'efficacité de calcul lors de l'adaptation répétée d'un modèle complexe à un grand ensemble de données?
J'ai des problèmes de performances en utilisant le MCMCglmmpackage dans R pour exécuter un modèle d'effets mixtes. Le code ressemble à ceci: MC1<-MCMCglmm(bull~1,random=~school,data=dt,family="categorical" , prior=list(R=list(V=1,fix=1), G=list(G1=list(V=1, nu=0))) , slice=T, nitt=iter, ,burnin=burn, verbose=F) Il y a environ 20 000 observations dans les données et elles sont regroupées dans environ 200 écoles. …

2
Méthodes MCMC - brûler des échantillons?
Dans les méthodes MCMC , je continue à lire sur le burn-intemps ou le nombre d'échantillons à "burn". Qu'est-ce que c'est exactement et pourquoi est-ce nécessaire? Mise à jour: Une fois que MCMC se stabilise, reste-t-il stable? Comment la notion de burn-intemps est-elle liée à celle de mixage du temps?
12 sampling  mcmc 

2
Un MCMC remplissant un équilibre détaillé donne-t-il une distribution stationnaire?
Je suppose que je comprends l'équation de la condition d'équilibre détaillé, qui stipule que pour la probabilité de transition et la distribution stationnaire , une chaîne de Markov satisfait à l'équilibre détaillé siqqqππ\piq(x|y)π(y)=q(y|x)π(x),q(x|y)π(y)=q(y|x)π(x),q(x|y)\pi(y)=q(y|x)\pi(x), cela a plus de sens pour moi si je le reformule comme: q(x|y)q(y|x)=π(x)π(y).q(x|y)q(y|x)=π(x)π(y).\frac{q(x|y)}{q(y|x)}= \frac{\pi(x)}{\pi(y)}. Fondamentalement, la probabilité …



2
PyMC débutant: comment échantillonner réellement à partir du modèle ajusté
J'essaie un modèle très simple: ajuster un Normal où je suppose que je connais la précision, et je veux juste trouver la moyenne. Le code ci-dessous semble correspondre correctement à la normale. Mais après l'ajustement, je veux échantillonner à partir du modèle, c'est-à-dire générer de nouvelles données similaires à ma …
12 mcmc  pymc 

2
Les paramètres du maximum de vraisemblance s'écartent des distributions postérieures
J'ai une fonction de vraisemblance pour la probabilité de mes données étant donné certains paramètres du modèle , que je voudrais estimer. En supposant des a priori plats sur les paramètres, la probabilité est proportionnelle à la probabilité postérieure. J'utilise une méthode MCMC pour échantillonner cette probabilité.L (d| θ)L(ré|θ)\mathcal{L}(d | …

2
Gibbs échantillonne-t-il une méthode MCMC?
D'après ce que je comprends, c'est (du moins, c'est ainsi que Wikipedia le définit ). Mais j'ai trouvé cette déclaration d'Efron * (je souligne): La chaîne de Markov Monte Carlo (MCMC) est la grande réussite des statistiques bayésiennes modernes. MCMC, et sa méthode sœur «échantillonnage de Gibbs», permettent le calcul …
11 mcmc  gibbs 



1
Comment dériver l'échantillonnage de Gibbs?
En fait, j'hésite à poser cette question, car je crains d'être renvoyé à d'autres questions ou à Wikipédia sur l'échantillonnage de Gibbs, mais je n'ai pas l'impression qu'ils décrivent ce qui est à portée de main. Étant donné une probabilité conditionnelle : p(x|y)p(x|y)p(x|y)p(x|y)x=x0x=x1y=y01434y=y12646p(x|y)y=y0y=y1x=x01426x=x13446 \begin{array}{c|c|c} p(x|y) & y = y_0 & …
11 sampling  mcmc  gibbs 

1
Échantillonnage de Gibbs pour le modèle d'Ising
Question de devoirs: Prenons le modèle d'Ising 1-d. Soit . vaut -1 ou +1x=(x1,...xd)x=(x1,...xd)x = (x_1,...x_d)xixix_i π(x)∝e∑39i=1xixi+1π(x)∝e∑i=139xixi+1\pi(x) \propto e^{\sum_{i=1}^{39}x_ix_{i+1}} Concevez un algorithme d'échantillonnage gibbs pour générer des échantillons approximativement à partir de la distribution cible π(x)π(x)\pi(x) . Ma tentative: Choisissez au hasard des valeurs (-1 ou 1) pour remplir le …

2
Échantillonnage MCMC de l'espace de l'arbre de décision par rapport à la forêt aléatoire
Une forêt aléatoire est une collection d' arbres de décision formés en sélectionnant de manière aléatoire uniquement certaines fonctionnalités avec lesquelles construire chaque arbre (et parfois en ensachant les données d'entraînement). Apparemment, ils apprennent et se généralisent bien. Quelqu'un a-t-il effectué un échantillonnage MCMC de l'espace de l'arbre de décision …

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.