Références de base sur MCMC pour les statistiques bayésiennes


11

Je recherche des articles ou des livres avec des exemples pratiques et théoriques sur MCMC de base pour les statistiques bayésiennes (avec R). Je n'ai jamais étudié la simulation et c'est pourquoi je recherche des informations "basiques". Pouvez-vous me donner quelques recommandations ou conseils?


Je vous conseille fortement d'étudier quelques simulations de base avant d'essayer de vous attaquer à MCMC.
Glen_b -Reinstate Monica

Étant donné le pedigree de certaines des recommandations ci - dessous, je hésite à ce poste, mais si vous vraiment envie « de base », j'ai quelques notes sur l'utilisation de MCMC pour l' inférence des paramètres des modèles à base physique ici ( en utilisant Python plutôt que R ). Les autres références données ci-dessous sont beaucoup plus rigoureuses, veuillez donc les utiliser avec prudence, mais j'aimerais penser qu'elles pourraient un jour être utiles à quelqu'un d'autre que moi :-)
JamesS

Réponses:


8

Outre les titres ci-dessus, il existe des livres ciblant spécifiquement R, comme


1
adoré votre livre par la manière chrétienne
bdeonovic

1
Christian, je veux te féliciter parce que TBC! en tant que débutant aux statistiques bayésiennes, votre livre m'a beaucoup aidé!
Red Noise

@ user135273: merci. Le choix bayésien peut parfois être dur pour un débutant ...!
Xi'an


5

Quand j'ai commencé à apprendre les statistiques, j'ai trouvé le livre de Gelman sur l'analyse des données bayésiennes très difficile à comprendre, il peut être un peu écrasant pour quelqu'un de nouveau en statistique!.

Je vous recommande de commencer par le livre de Peter Hoff, Un premier cours de méthodes statistiques bayésiennes .

Ce n'est pas un livre complet sur des sujets statistiques avancés, mais il contient un grand nombre de modèles statistiques et d'exemples et des codes R sont fournis soit dans le texte, soit sur le site Web de ce livre.


5

Si vous posez des questions sur les documents d' introduction , vous pouvez vérifier les points suivants:

Casella, G. et George, EI (1992). Expliquer l'échantillonneur Gibbs. The American Statistician, 46 (3), 167-174.

Andrieu, C., de Freitas, N., Doucet, A. & Jordan, MI (2003). Une introduction à MCMC pour l'apprentissage automatique. Apprentissage automatique, 50, 5-43.

Tierney, L. (1994). Chaînes de Markov pour explorer les distributions postérieures. Les annales de la statistique, 1701-1728.

Hartig, F., Calabrese, JM, Reineking, B., Wiegand, T., et Huth, A. (2011). Inférence statistique pour les modèles de simulation stochastique - théorie et application. Ecology Letters, 14, 816–827.


1
Historiquement, l'article du Statisticien américain de George et Ed aurait dû être intitulé Gibbs for kids, mais les éditeurs ne l'ont pas aimé. Il a fallu un éleveur d'animaux, Dan Gianola, pour recycler le titre en Gibbs pour les porcs et faire publier sa critique.
Xi'an

1

La théorie bayésienne a toujours eu un sens pour moi, mais l'analyse bayésienne a toujours été très déroutante. Les choses ont vraiment commencé à cliquer lorsque j'ai lu cet article de blog sur l'exemple des 8 écoles: http://andrewgelman.com/2014/01/21/everything-need-know-bayesian-statistics-learned-eight-schools/

En fait, je pense que l'exemple pourrait être plus significatif avec un meilleur exemple, la métrique décrite dans les 8 écoles est un résultat abstrait de «coaching».


0

Grande explication graphique de MCMC de Stata

https://www.youtube.com/watch?v=OTO1DygELpY

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.