Qu'est-ce qu'un «Priorité d'information sur l'unité»?


11

J'ai lu Wagenmakers (2007) Une solution pratique au problème omniprésent des valeurs de p . Je suis intrigué par la conversion des valeurs BIC en facteurs et probabilités Bayes. Cependant, jusqu'à présent, je n'ai pas une bonne compréhension de ce qu'est exactement une information d'unité avant . Je serais reconnaissant pour une explication avec des images, ou le code R pour générer des images, de cet avant particulier.

Réponses:


6

La priorité des informations unitaires est une priorité dépendante des données (généralement normale à plusieurs variables) avec une moyenne au MLE et une précision égale aux informations fournies par une observation. Voir par exemple ce rapport technique ou ce document pour plus de détails. L'idée de l'UIP est de donner un a priori qui «laisse les données parler d'elles-mêmes»; dans la plupart des cas, l'ajout d'un a priori qui vous indique jusqu'à une observation centrée où les autres données «pointent» aura peu d'impact sur l'analyse ultérieure. L'une de ses principales utilisations est de montrer que l'utilisation du BIC correspond, dans de grands échantillons, à l'utilisation des facteurs de Bayes, avec des UIP sur leurs paramètres.

Il convient également de noter que de nombreux statisticiens (y compris les Bayésiens) sont mal à l'aise avec l'utilisation des facteurs de Bayes et / ou du BIC, pour de nombreux problèmes appliqués.


2
Le BIC n'est pas un outil bayésien, car il supprime l'impact du prieur. En tant que Bayésien, je suis à l'aise avec les facteurs Bayes, mais pas avec AIC, BIC, ni DIC!
Xi'an

Eh bien, je n'ai jamais dit que ça l'était! En tant que bayésien (qui a lu et qui apprécie le choix bayésien), je serais satisfait de l'une de ces méthodes si elles avaient une justification théorique, même approximative, pour un utilitaire qui reflétait ce que je voulais que l'analyse réalise.
invité le

Merci pour les réponses. J'ai posé une question de suivi ici
Matt Albrecht

2

L'information unitaire a priori est basée sur l'interprétation suivante de la conjugaison:

Installer

  • Données normales: avec avec inconnu et connus. Les données peuvent alors être suffisamment résumées par la moyenne de l'échantillon, qui avant que toute donnée ne soit vue est distribuée selon .X iN ( μ , σ 2 ) μ σ 2 ˉ XN ( μ , σ 2Xn=(X1,,Xn)XiN(μ,σ2)μσ2X¯N(μ,σ2n)
  • Priorité normale pour :μ Avec avec la même variance que dans les données.μN(a,σ2)
  • μμN(M,v)M=1n+1(une+nX¯)v=σ2n+1

Interprétation

X¯=X¯μX¯uneσ2n+1n+1nX¯une

M0:μ=uneM1:μRn

Quelques remarques:

  • Le fait que BIC se rapproche d'un facteur Bayes sur la base d'une information d'unité préalable, n'implique pas que nous devrions utiliser une information d'unité avant de construire un facteur Bayes. Le choix par défaut de Jeffreys (1961) est d'utiliser à la place un Cauchy prioritaire sur la taille de l'effet, voir également Ly et al. (sous presse) pour une explication sur le choix de Jeffreys.
  • Kass et Wasserman ont montré que le BIC divisé par une constante (qui relie le Cauchy à une distribution normale) peut toujours être utilisé comme approximation du facteur Bayes (cette fois basé sur un Cauchy avant au lieu d'un normal).

Les références

  • Jeffreys, H. (1961). Théorie de la probabilité . Oxford University Press, Oxford, Royaume-Uni, 3 édition.
  • Kass, RE et Wasserman, L. (1995). «Un test bayésien de référence pour les hypothèses imbriquées et sa relation avec le critère de Schwarz», Journal de l'American Statistical Association , 90, 928-934
  • Ly, A., Verhagen, AJ et Wagenmakers, E.-J. (dans la presse). Tests d'hypothèse du facteur Bayes par défaut de Harold Jeffreys: explication, extension et application en psychologie. Journal of Mathematical Psychology.
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.