Les algorithmes MCMC comme l'échantillonnage de Metropolis-Hastings et Gibbs sont des moyens d'échantillonnage à partir des distributions postérieures conjointes.
Je pense que je comprends et que je peux mettre en œuvre la métropole-hasting assez facilement - il vous suffit de choisir les points de départ d'une manière ou d'une autre et de `` parcourir l'espace des paramètres '' au hasard, guidé par la densité postérieure et la densité de la proposition. L'échantillonnage de Gibbs semble très similaire mais plus efficace car il ne met à jour qu'un paramètre à la fois, tout en maintenant les autres constants, parcourant efficacement l'espace de manière orthogonale.
Pour ce faire, vous avez besoin du conditionnel complet de chaque paramètre en analyse à partir de *. Mais d'où viennent ces conditions complètes? Pour obtenir le dénominateur, vous devez marginaliser le joint surx1. Cela semble être beaucoup de travail à faire analytiquement s'il existe de nombreux paramètres, et pourrait ne pas être traitable si la distribution conjointe n'est pas très «agréable». Je me rends compte que si vous utilisez la conjugaison dans tout le modèle, les conditions complètes peuvent être faciles, mais il doit y avoir un meilleur moyen pour des situations plus générales.
Tous les exemples d'échantillonnage de Gibbs que j'ai vus en ligne utilisent des exemples de jouets (comme l'échantillonnage d'une normale multivariée, où les conditions ne sont que des normales elles-mêmes), et semblent esquiver ce problème.
* Ou avez-vous besoin des conditions complètes sous forme analytique? Comment font les programmes comme winBUGS?