Questions marquées «gibbs»

L'échantillonneur de Gibbs est une forme simple de simulation de Monte Carlo en chaîne de Markov, largement utilisée dans les statistiques bayésiennes, basée sur un échantillonnage à partir de distributions conditionnelles complètes pour chaque variable ou groupe de variables. Le nom vient de la méthode utilisée pour la première fois sur la modélisation des champs aléatoires de Gibbs des images par Geman et Geman (1984).

4
OpenBugs contre JAGS
Je suis sur le point d'essayer un environnement de type BUGS pour estimer les modèles bayésiens. Y at-il des avantages importants à considérer dans le choix entre OpenBugs ou JAGS? L'un est-il susceptible de remplacer l'autre dans un avenir prévisible? Je vais utiliser le sampler choisi avec Gibbs avec R. …
41 r  software  bugs  jags  gibbs 

1
Quelle est la différence entre l'échantillonnage Metropolis Hastings, Gibbs, Importance et Rejection?
J'ai essayé d'apprendre les méthodes MCMC et j'ai découvert l'échantillonnage de Hastings, Gibbs, Importance et Reject dans Metropolis. Certaines de ces différences sont évidentes, c’est-à-dire que Gibbs est un cas particulier de Metropolis Hastings lorsque nous avons les conditions complètes, alors que d’autres sont moins évidentes, comme lorsque nous voulons …


1
Quelles sont les améliorations bien connues par rapport aux algorithmes MCMC manuels que les gens utilisent pour l'inférence bayésienne?
Lorsque je code une simulation Monte Carlo pour un problème et que le modèle est assez simple, j'utilise un échantillonnage Gibbs très basique. Lorsqu'il n'est pas possible d'utiliser l'échantillonnage de Gibbs, je code le manuel Metropolis-Hastings que j'ai appris il y a des années. La seule pensée que je lui …


1
Quand utiliserait-on l'échantillonnage de Gibbs au lieu de Metropolis-Hastings?
Il existe différents types d'algorithmes MCMC: Metropolis-Hastings Gibbs Échantillonnage d'importance / rejet (lié). Pourquoi utiliser un échantillonnage de Gibbs au lieu de Metropolis-Hastings? Je soupçonne qu'il y a des cas où l'inférence est plus traitable avec l'échantillonnage de Gibbs qu'avec Metropolis-Hastings, mais je ne suis pas clair sur les détails.

1
L'algorithme d'échantillonnage de Gibbs garantit-il un équilibre détaillé?
Je considère par l'autorité suprême 1 que Gibbs Sampling est un cas particulier de l'algorithme Metropolis-Hastings pour l'échantillonnage Markov Chain Monte Carlo. L'algorithme MH donne toujours une probabilité de transition avec la propriété d'équilibre détaillée; Je pense que Gibbs devrait aussi. Alors, où dans le cas simple suivant ai-je mal …
17 mcmc  gibbs 

1
Stan
Je parcourais la documentation de Stan qui peut être téléchargée ici . J'étais particulièrement intéressé par leur implémentation du diagnostic Gelman-Rubin. Le document original Gelman & Rubin (1992) définit le facteur de réduction d'échelle potentiel (PSRF) comme suit: Soit Xi,1,…,Xi,NXi,1,…,Xi,NX_{i,1}, \dots , X_{i,N} la iii ème chaîne de Markov échantillonnée, …

2
D'où viennent les conditions complètes dans l'échantillonnage de Gibbs?
Les algorithmes MCMC comme l'échantillonnage de Metropolis-Hastings et Gibbs sont des moyens d'échantillonnage à partir des distributions postérieures conjointes. Je pense que je comprends et que je peux mettre en œuvre la métropole-hasting assez facilement - il vous suffit de choisir les points de départ d'une manière ou d'une autre …
15 bayesian  mcmc  gibbs 

1
Probabilité marginale de la sortie de Gibbs
Je reproduis de zéro les résultats de la section 4.2.1 de Probabilité marginale de la sortie de Gibbs Siddhartha Chib Journal de l'American Statistical Association, vol. 90, n ° 432. (déc., 1995), pp. 1313-1321. C'est un mélange de modèles normaux avec un nombre connu de composants. k≥1k≥1k\geq 1f(x∣w,μ,σ2)=∏i=1n∑j=1kN(xi∣μj,σ2j).(∗)f(x∣w,μ,σ2)=∏i=1n∑j=1kN(xi∣μj,σj2).(∗) f(x\mid w,\mu,\sigma^2) …


2
Gibbs échantillonne-t-il une méthode MCMC?
D'après ce que je comprends, c'est (du moins, c'est ainsi que Wikipedia le définit ). Mais j'ai trouvé cette déclaration d'Efron * (je souligne): La chaîne de Markov Monte Carlo (MCMC) est la grande réussite des statistiques bayésiennes modernes. MCMC, et sa méthode sœur «échantillonnage de Gibbs», permettent le calcul …
11 mcmc  gibbs 

1
Comment tester si une matrice de covariance croisée est non nulle?
Le fond de mon étude : Dans un échantillonnage de Gibbs où nous échantillonnons (la variable d'intérêt) et partir de et respectivement, où et sont des vecteurs aléatoires à dimensions. Nous savons que le processus est généralement divisé en deux étapes:XXXYYYP(X|Y)P(X|Y)P(X|Y)P(Y|X)P(Y|X)P(Y|X)XXXYYYkkk Période de rodage, où nous jetons tous les échantillons. …

1
Comment dériver l'échantillonnage de Gibbs?
En fait, j'hésite à poser cette question, car je crains d'être renvoyé à d'autres questions ou à Wikipédia sur l'échantillonnage de Gibbs, mais je n'ai pas l'impression qu'ils décrivent ce qui est à portée de main. Étant donné une probabilité conditionnelle : p(x|y)p(x|y)p(x|y)p(x|y)x=x0x=x1y=y01434y=y12646p(x|y)y=y0y=y1x=x01426x=x13446 \begin{array}{c|c|c} p(x|y) & y = y_0 & …
11 sampling  mcmc  gibbs 

1
Modélisation bayésienne utilisant la normale multivariée avec la covariable
Supposons que vous ayez une variable explicative où représente une coordonnée donnée. Vous avez également une variable de réponse . Maintenant, nous pouvons combiner les deux variables comme:X=(X(s1),…,X(sn))X=(X(s1),…,X(sn)){\bf{X}} = \left(X(s_{1}),\ldots,X(s_{n})\right)sssY=(Y(s1),…,Y(sn))Y=(Y(s1),…,Y(sn)){\bf{Y}} = \left(Y(s_{1}),\ldots,Y(s_{n})\right) W(s)=(X(s)Y(s))∼N(μ(s),T)W(s)=(X(s)Y(s))∼N(μ(s),T){\bf{W}}({\bf{s}}) = \left( \begin{array}{ccc}X(s) \\ Y(s) \end{array} \right) \sim N(\boldsymbol{\mu}(s), T) Dans ce cas, nous choisissons simplement μ(s)=(μ1μ2)Tμ(s)=(μ1μ2)T\boldsymbol{\mu}(s) …

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.