Je considère un grand (mais fini) espace de modèles de complexité variable que j'explore en utilisant RJMCMC . Le prior sur le vecteur de paramètre pour chaque modèle est assez informatif.
Dans quels cas (le cas échéant) devrais-je m'inquiéter du paradoxe de Jeffreys-Lindley favorisant les modèles plus simples alors que l'un des modèles les plus complexes conviendrait mieux?
Existe-t-il des exemples simples qui mettent en évidence les problèmes du paradoxe dans le choix du modèle bayésien?
J'ai lu quelques articles, à savoir le blog de Xi'an et le blog de Andrew Gelman , mais je ne comprends toujours pas tout à fait le problème.