Choisir des priors non informatifs


8

Je travaille sur un modèle reposant sur une vilaine fonction paramétrée faisant office de fonction de calibration sur une partie du modèle. En utilisant un paramètre bayésien, j'ai besoin d'obtenir des priors non informatifs pour les paramètres décrivant ma fonction. Je sais que dans l'idéal, je devrais dériver la référence ou au moins les précédents de Jeffreys mais la fonction est très moche, possède de nombreux paramètres et je suis pessimiste sur la possibilité d'obtenir réellement un résultat. J'ai donc décidé de laisser tomber cette possibilité et de choisir empiriquement mes prieurs pour qu'ils soient assez informatifs. Voici mes deux questions.

  1. Puis-je faire plus que des indiscrets et donner un aperçu de leur non-informativité à partir des résultats d'inférence? Edit: Je suppose que tracer le Vs postérieur avant serait un premier point. Peut-être que la comparaison des estimations MAP et ML pourrait être un deuxième argument?

  2. De plus, est-ce logique de justifier un aspect du choix à partir d'une "analyse dimensionnelle"? Par exemple, si je considère une structure de vraisemblance de la forme (dans un cadre de régression simple): Pensez-vous que je peux deviner n'importe quelle "structure" pour le prieur sur et basant sur le fait que l'un pèse tandis que l'autre pèse ?

    Y|a,b,x=a.x+b.ex+ϵ
    abxex

Réponses:


3

Les prieurs de Jeffreys sont en effet ingérables en dehors des familles standard et ne sont même pas nécessairement recommandés en dimensions élevées. Si le modèle est suffisamment complexe, les prieurs devraient profiter des structures hiérarchiques sous-jacentes à ce modèle ...

  1. L'utilisation des données réelles pour produire ou sélectionner un «préalable» est une contradiction en termes! Cependant, vous pouvez utiliser la distribution d'échantillonnage pour simuler des pseudo-ensembles de données et vérifier l'impact de divers éléments prioritaires sur ces ensembles de données. Par exemple, en regardant les distances entre les antérieurs et les postérieurs. Par exemple, vous pouvez utiliser des données simulées associées à un paramètre pour dériver une variance asymptotique approximative pour le MLE ou la MAP associé , puis utiliser comme remplaçant Jeffreys avant.θI^(θ)(^θ)|I^(θ)|1/2

  2. Dans un cadre de régression comme celui présenté ici, le G-prior de Zellner gérerait la différence d'échelle pour et assez naturellement.Xexp(X)


1
(+1) Bienvenue sur 8000!
Zen
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.