Je proposerais le livre Bayesian Data Analysis comme une excellente source pour répondre à cette question (en particulier le chapitre 6) et tout ce que je vais dire. Mais l'un des moyens habituels par lesquels les Bayésiens s'attaquent à ce problème est d'utiliser des valeurs P prédictives postérieures (PPP). Avant de passer à la façon dont les PPP résoudraient ce problème, permettez-moi d'abord de définir la notation suivante:
Soit les données observées et θ le vecteur des paramètres. Nous définissons y représentant les répliqués données qui auraient été observés, ou de penser prédictivement, les données que nous pourrions voir demain si l'expérience qui a produit y aujourd'hui ont été reproduites avec le même modèle et la même valeur de θ qui a produit le observé Les données.yθyreprésentantyθ
Remarque, nous définirons la distribution de étant donné l'état actuel des connaissances avec la distribution prédictive postérieure
p ( y rep | y ) = ∫ Θ p ( y rep | θ ) p ( θ | y ) d θyreprésentant
p ( yreprésentant| y) = ∫Θp( yreprésentant| θ)p(θ | y) dθ
Maintenant, nous pouvons mesurer l'écart entre le modèle et les données en définissant les quantités de test , les aspects des données que nous souhaitons vérifier. Une quantité de test, ou mesure d'écart , , est un résumé scalaire des paramètres et des données qui est utilisé comme standard lors de la comparaison des données aux simulations prédictives. Les quantités de test jouent un rôle dans le modèle bayésien en vérifiant que les statistiques de test jouent dans les tests classiques. On définit la notation T ( y )T( y, θ )T(y)pour une statistique de test, qui est une quantité de test qui ne dépend que des données; dans le contexte bayésien, nous pouvons généraliser les statistiques de test pour permettre une dépendance aux paramètres du modèle sous leur distribution postérieure.
T(y)
pC= Pr ( T( yreprésentant) ≥ T(y) | θ )
yreprésentantθ
( θ , yreprésentant)
pB= Pr ( T( yreprésentant, θ ) ≥T(y, θ ) |y)
θyreprésentantp ( θ , yreprésentant|y)pB= ∬ΘjeT( yreprésentant, θ ) ≥ T( y| θ)p ( yreprésentant| θ)p(θ | y) dyreprésentantréθ ,
je
LθyreprésentantθLp ( yreprésentant, θ | y)T( y, θl)T( yrep l, θl)L
T( yrep l, θl) ≥ T( y, θl)
l = 1 , . . . , L
Contrairement à l'approche classique, la vérification du modèle bayésien ne nécessite pas de méthodes spéciales pour gérer les «paramètres de nuisance». En utilisant des simulations postérieures, nous faisons implicitement la moyenne de tous les paramètres du modèle.
Une autre source, Andrew Gelman, a également un très bon article sur les PPP ici:
http://www.stat.columbia.edu/~gelman/research/unpublished/ppc_understand2.pdf