Questions marquées «gibbs»

L'échantillonneur de Gibbs est une forme simple de simulation de Monte Carlo en chaîne de Markov, largement utilisée dans les statistiques bayésiennes, basée sur un échantillonnage à partir de distributions conditionnelles complètes pour chaque variable ou groupe de variables. Le nom vient de la méthode utilisée pour la première fois sur la modélisation des champs aléatoires de Gibbs des images par Geman et Geman (1984).

1
Échantillonnage de Gibbs pour le modèle d'Ising
Question de devoirs: Prenons le modèle d'Ising 1-d. Soit . vaut -1 ou +1x=(x1,...xd)x=(x1,...xd)x = (x_1,...x_d)xixix_i π(x)∝e∑39i=1xixi+1π(x)∝e∑i=139xixi+1\pi(x) \propto e^{\sum_{i=1}^{39}x_ix_{i+1}} Concevez un algorithme d'échantillonnage gibbs pour générer des échantillons approximativement à partir de la distribution cible π(x)π(x)\pi(x) . Ma tentative: Choisissez au hasard des valeurs (-1 ou 1) pour remplir le …

2
Comment des programmes comme BUGS / JAGS déterminent-ils automatiquement les distributions conditionnelles pour l'échantillonnage de Gibbs?
Il semble que les conditions complètes soient souvent assez difficiles à dériver, mais des programmes comme JAGS et BUGS les dérivent automatiquement. Quelqu'un peut-il expliquer comment il génère algorithmiquement des conditions complètes pour toute spécification de modèle arbitraire?

2
Confusion liée à l'échantillonnage de Gibbs
Je suis tombé sur cet article où il est dit que dans l'échantillonnage de Gibbs, chaque échantillon est accepté. Je suis un peu confus. Comment se fait-il que chaque échantillon qu'il a accepté converge vers une distribution stationnaire. En général, nous acceptons l'algorithme Metropolis comme min (1, p (x *) …

2
Calculer la courbe ROC pour les données
Donc, j'ai 16 essais dans lesquels j'essaie d'authentifier une personne à partir d'un trait biométrique en utilisant Hamming Distance. Mon seuil est fixé à 3,5. Mes données sont ci-dessous et seul l'essai 1 est un vrai positif: Trial Hamming Distance 1 0.34 2 0.37 3 0.34 4 0.29 5 0.55 …
9 mathematical-statistics  roc  classification  cross-validation  pac-learning  r  anova  survival  hazard  machine-learning  data-mining  hypothesis-testing  regression  random-variable  non-independent  normal-distribution  approximation  central-limit-theorem  interpolation  splines  distributions  kernel-smoothing  r  data-visualization  ggplot2  distributions  binomial  random-variable  poisson-distribution  simulation  kalman-filter  regression  lasso  regularization  lme4-nlme  model-selection  aic  r  mcmc  dlm  particle-filter  r  panel-data  multilevel-analysis  model-selection  entropy  graphical-model  r  distributions  quantiles  qq-plot  svm  matlab  regression  lasso  regularization  entropy  inference  r  distributions  dataset  algorithms  matrix-decomposition  regression  modeling  interaction  regularization  expected-value  exponential  gamma-distribution  mcmc  gibbs  probability  self-study  normality-assumption  naive-bayes  bayes-optimal-classifier  standard-deviation  classification  optimization  control-chart  engineering-statistics  regression  lasso  regularization  regression  references  lasso  regularization  elastic-net  r  distributions  aggregation  clustering  algorithms  regression  correlation  modeling  distributions  time-series  standard-deviation  goodness-of-fit  hypothesis-testing  statistical-significance  sample  binary-data  estimation  random-variable  interpolation  distributions  probability  chi-squared  predictor  outliers  regression  modeling  interaction 

2
Rao-Blackwellization de Gibbs Sampler
J'évalue actuellement un modèle de volatilité stochastique avec les méthodes de Markov Chain Monte Carlo. Ainsi, j'implémente les méthodes d'échantillonnage de Gibbs et Metropolis. En supposant que je prenne la moyenne de la distribution postérieure plutôt qu'un échantillon aléatoire, est-ce ce que l'on appelle communément Rao-Blackwellization ? Dans l'ensemble, cela …

1
Puis-je sous-échantillonner un grand ensemble de données à chaque itération MCMC?
Problème: je veux effectuer un échantillonnage de Gibbs pour en déduire une partie postérieure sur un grand ensemble de données. Malheureusement, mon modèle n'est pas très simple et donc l'échantillonnage est trop lent. J'envisagerais des approches variationnelles ou parallèles, mais avant d'aller aussi loin ... Question: Je voudrais savoir si …

1
Quelle est la bonne façon d'écrire le filet élastique?
Je suis confus quant à la bonne façon d'écrire le filet élastique. Après avoir lu certains documents de recherche, il semble y avoir trois formes 1)exp{−λ1|βk|−λ2β2k}exp⁡{−λ1|βk|−λ2βk2}\exp\{-\lambda_1|\beta_k|-\lambda_2\beta_k^2\} 2)exp{−(λ1|βk|+λ2β2k)σ2√}exp⁡{−(λ1|βk|+λ2βk2)σ2}\exp\{-\frac{(\lambda_1|\beta_k|+\lambda_2\beta_k^2)}{\sqrt{\sigma^2}}\} 3)exp{−(λ1|βk|+λ2β2k)2σ2}exp⁡{−(λ1|βk|+λ2βk2)2σ2}\exp\{-\frac{(\lambda_1|\beta_k|+\lambda_2\beta_k^2)}{2\sigma^2}\} Je ne comprends tout simplement pas la bonne façon d'ajouter . L'une des expressions ci-dessus est-elle correcte?σ2σ2\sigma^2


1
Noyau de transition de Gibbs Sampler
Soit la distribution cible sur qui est absolument continue par rapport à la mesure de Lebesgue dimensionnelle, c'est-à-dire:ππ\pi(Rd,B(Rd))(Rd,B(Rd))(\mathbb{R}^d,\mathcal{B}(\mathbb{R^d}))ddd ππ\pi admet une densité wrt à avec π(x1,...,xd)π(x1,...,xd)\pi(x_1,...,x_d)λdλd\lambda^dλd(dx1,...,dxd)=λ(dx1)⋅⋅⋅λ(dxd)λd(dx1,...,dxd)=λ(dx1)⋅⋅⋅λ(dxd)\lambda^d(dx_1,...,dx_d) = \lambda(dx_1) \cdot \cdot \cdot \lambda (dx_d) Supposons que les conditions complètes de sont connues. Le noyau de transition du Gibbs-Sampler est donc clairement …

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.