À ma connaissance, le calcul bayésien approximatif (ABC) et la chaîne de Markov Monte Carlo (MCMC) ont des objectifs très similaires. Ci-dessous, je décris ma compréhension de ces méthodes et comment je perçois les différences dans leur application aux données réelles.
Calcul bayésien approximatif
ABC consiste à échantillonner un paramètre partir d'un précédent, par simulation numérique calculer une statistique qui est comparée à certains observés . Basé sur un algorithme de rejet, est soit conservé, soit rejeté. La liste des retenus a fait la distribution postérieure.x i x o b s x i x i
Chaîne Markov Monte Carlo
MCMC consiste à échantillonner une distribution préalable du paramètre . Il prend un premier échantillon , calcule puis saute (selon une règle) à une nouvelle valeur pour laquelle est à nouveau calculé. Le rapport est calculé et en fonction d'une certaine valeur seuil, le saut suivant se produira à partir de la première ou de la deuxième position. L'exploration des va de pair et à la fin, la distribution des retenues est la distribution postérieureθ 1 P ( x o b s | θ 1 ) P ( θ 1 ) θ 2 P ( x o b s | θ 2 ) P ( θ 2 ) P ( x o b s | θ 2 ) P ( θ 2 ) (pour une raison qui m'est encore inconnue).
Je me rends compte que mes explications manquent de représenter la variété des méthodes qui existent sous chacun de ces termes (en particulier pour MCMC).
ABC vs MCMC (avantages et inconvénients)
ABC a l'avantage de ne pas avoir besoin de résoudre analytiquement . En tant que tel, ABC est pratique pour les modèles complexes où MCMC ne le ferait pas.
MCMC permet de faire des tests statistiques (test de rapport de vraisemblance, test G, ...) alors que je ne pense pas que ce soit faisable avec ABC.
Ai-je raison jusqu'à présent?
Question
- En quoi ABC et MCMC diffèrent-ils dans leurs applications? Comment décide-t-on d'utiliser l'une ou l'autre méthode?