L'échantillonnage à partir d'un mauvais postérieur (densité) n'a pas de sens d'un point de vue probabiliste / théorique. La raison en est que la fonction f n'a pas d'intégrale finie sur l'espace des paramètres et, par conséquent, ne peut pas être liée à un modèle de probabilité ( mesure finie) ( Ω , σ , P ) (espace, algèbre sigma, mesure de probabilité ).FF( Ω , σ, P )
Si vous avez un modèle avec un mauvais avant qui conduit à un mauvais postérieur, dans de nombreux cas, vous pouvez toujours en échantillonner à l'aide de MCMC, par exemple Metropolis-Hastings, et les "échantillons postérieurs" peuvent sembler raisonnables. Cela semble intrigant et paradoxal à première vue. Cependant, la raison en est que les méthodes MCMC sont limitées aux limitations numériques des ordinateurs dans la pratique, et par conséquent, tous les supports sont limités (et discrets!) Pour un ordinateur. Ensuite, sous ces restrictions (délimitation et caractère discret), le postérieur est en fait approprié dans la plupart des cas.
Il y a une grande référence par Hobert et Casella qui présente un exemple (de nature légèrement différente) où vous pouvez construire un échantillonneur Gibbs pour un postérieur, les échantillons postérieurs semblent parfaitement raisonnables, mais le postérieur est incorrect!
http://www.jstor.org/stable/2291572
Un exemple similaire est récemment apparu ici . En fait, Hobert et Casella avertissent le lecteur que les méthodes MCMC ne peuvent pas être utilisées pour détecter une irrégularité de la partie postérieure et que cela doit être vérifié séparément avant de mettre en œuvre des méthodes MCMC. En résumé:
- Certains échantillonneurs MCMC, tels que Metropolis-Hastings, peuvent (mais ne devraient pas) être utilisés pour échantillonner à partir d'un postérieur incorrect puisque l'ordinateur délimite et dicrétise l'espace des paramètres. Seulement si vous avez d' énormes échantillons, vous pouvez être en mesure d'observer certaines choses étranges. La façon dont vous pouvez détecter ces problèmes dépend également de la distribution "instrumentale" utilisée dans votre échantillonneur. Ce dernier point nécessite une discussion plus approfondie, je préfère donc le laisser ici.
- (Hobert et Casella). Le fait que vous puissiez construire un échantillonneur de Gibbs (modèle conditionnel) pour un modèle avec un a priori incorrect n'implique pas que le postérieur (modèle conjoint) est correct.
- Une interprétation probabiliste formelle des échantillons postérieurs nécessite la propriété du postérieur. Les résultats et les preuves de convergence ne sont établis que pour des distributions / mesures de probabilité appropriées.
PS (un peu ironique): Ne croyez pas toujours ce que les gens font en Machine Learning. Comme l'a déclaré le professeur Brian Ripley: "l'apprentissage automatique est une statistique moins toute vérification des modèles et des hypothèses".