Quand MCMC est-il utile?


12

J'ai du mal à comprendre dans quelle situation l'approche MCMC est réellement utile. Je passe par un exemple de jouet du livre de Kruschke "Faire l'analyse des données bayésiennes: un tutoriel avec R et BUGS".

Ce que j'ai compris jusqu'à présent, c'est que nous avons besoin d'une distribution cible qui est proportionnelle à afin d'avoir un échantillon de P ( θ | D ) . Cependant, il me semble qu'une fois que nous avons p ( D | θ ) pp(D|θ)p(θ)P(θ|D) il suffit de normaliser la distribution pour obtenir le postérieur, et le facteur de normalisation peut être facilement trouvé numériquement. Alors, quels sont les cas où cela n'est pas possible?p(D|θ)p(θ)


2
Supposons que ne soit pas un scalaire mais plutôt un vecteur θ ayant 10000 dimensions. θθ
Jan Galkowski

1
Ma réponse était un peu laconique. Pour obtenir la constante, il faut calculer . Même dans le cas scalaire, supposons que p ( D | θ ) soit vraiment bancal, donc l'intégration est difficile à faire, même numériquement. Vous pouvez alors utiliser MCMC. p(D|θ)p(θ)p(D|θ)
Jan Galkowski

2
Un mot de prudence d'Alan Sokal: "Monte Carlo est une méthode extrêmement mauvaise; elle ne doit être utilisée que lorsque toutes les méthodes alternatives sont les pires". Puis il se lance dans une longue discussion sur les méthodes MC. stat.unc.edu/faculty/cji/Sokal.pdf
Yair Daon

1
@Yair: Il me semble que Sokal canalise Churchill.
cardinal

1
Quand rien d'autre ne fonctionnera ...
kjetil b halvorsen

Réponses:


10

L'intégration de Monte Carlo est une forme d'intégration numérique qui peut être beaucoup plus efficace que, par exemple, l'intégration numérique en rapprochant l'intégrande avec des polynômes. Cela est particulièrement vrai dans les dimensions élevées, où les techniques d'intégration numérique simples nécessitent un grand nombre d'évaluations de fonctions. Pour calculer la constante de normalisation p(D) , nous pourrions utiliser un échantillonnage d'importance ,

p(D)=q(θ)q(θ)p(θ)p(Dθ)dθ1Nnwnp(θn)p(Dθn),

et les θ n sont échantillonnés à partir de q . Notez que nous avons seulement besoin d'évaluer la distribution conjointe aux points échantillonnés. Pour le bon q , cet estimateur peut être très efficace dans le sens où il nécessite très peu d'échantillons. En pratique, choisir un q appropriéwn=1/q(θn)θnqqq peut être difficile, mais c'est là que MCMC peut vous aider! L'échantillonnage d'importance recuit (Neal, 1998) combine la MCMC avec l'échantillonnage d'importance.

Une autre raison pour laquelle MCMC est utile est la suivante: nous ne sommes généralement même pas très intéressés par la densité postérieure de , mais plutôt par des statistiques sommaires et des attentes , par exemple,θ

p(θD)f(θ)dθ.

Connaître ne signifie généralement pas que nous pouvons résoudre cette intégrale, mais les échantillons sont un moyen très pratique de l'estimer.p(D)

Enfin, être en mesure d'évaluer est une exigence pour certaines méthodes MCMC, mais pas pour toutes (par exemple, Murray et al., 2006 ).p(Dθ)p(θ)


Désolé, mais ce n'est toujours pas clair pour moi. Ma question est: si nous multiplions simplement nous obtenons un pdf non normalisé. En exécutant MCMC, nous obtenons un échantillon pour lequel nous pouvons estimer le pdf non normalisé. Si nous voulons, nous pourrions normaliser les deux. Donc, EN supposant que je ne suis PAS intéressé par des statistiques sommaires, mais seulement par les postérieurs, pourquoi utilisons-nous MCMC en premier lieu? Comme vous l'avez dit, certaines méthodes MCMC ne nécessitent pas le calcul de p ( D | θ ) p ( θ )p(D|θ)p(θ)p(D|θ)p(θ), donc je ne parle pas de ceux-ci. Pour autant que je sache, la plupart d'entre eux nécessitent le calcul de cela. Quelle est l'utilité de ces méthodes?
Vaaal

2
Lorsque vous exécutez MCMC, vous obtenez un échantillon du pdf normalisé , évitez donc de calculer la constante de normalisation. Et c'est gratuit.
Xi'an

2
θp(Dθ)p(θ)

6

p(θ)f(x|θ)

p(θ|x)p(θ)f(x|θ)

θ

p(θ|x) , est suffisante pour réaliser une simulation à partir du vrai postérieur à long terme.

p(θ|x) qui peut être calculée jusqu'à une constante.

p(θ)f(x|θ)

p(θ)f(x|θ)g(z|θ,x)p(θ)f(x|θ)dz

Les méthodes MCMC ont donné une portée beaucoup plus large aux méthodes bayésiennes, comme l'illustre la recrudescence qui a suivi la vulgarisation de la méthode par Alan Gelfand et Adrian Smith en 1990.


Le lien vers LE LIVRE DES BUGS ne fonctionne plus.
HelloWorld
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.