Comment utilise-t-on le théorème de Bayes avec un a priori continu?


8

Si mon a priori est modélisé comme une distribution de probabilité continue, disons, une distribution bêta asymétrique pour refléter mon biais vers certains modèles, comment puis-je calculer la probabilité postérieure?

Le défi pour moi est de calculer la probabilité d'un modèle donné, car la distribution continue ne me donnera que des estimations pour les intervalles .

Veuillez pardonner la naïveté de la question, je n'ai commencé que récemment à étudier les statistiques bayésiennes.


Je suppose que la bonne question serait "Comment puis-je calculer la probabilité du modèle à partir d'un échantillon de données?" Je peux facilement calculer la probabilité des données compte tenu du modèle, mais je ne sais pas comment estimer la probabilité du modèle. Et oui, je suis intéressé par la comparaison de modèles.
Rafa

Réponses:


3

Pour comparer des modèles, disons

M1={f1(|θ1); θ1Θ1}
et
M2={f2(|θ2); θ2Θ2}
la réponse bayésienne classique est (Jeffreys, 1939) de produire un facteur Bayes
B12(x)=Θ1f1(x|θ1)π1(dθ1)Θ2f2(x|θ2)π2(dθ2)
Quand B12(x) est plus grand que 1 les données favorisent le modèle M1; quandB12(x) est plus petite que 1, les données favorisent le modèle M2.

6

Le théorème de Bayes est:

P(A|B)=P(B|A)P(A)P(B)

Dans le cas où vous avez des données et un paramètre, il est courant d'utiliser θ pour le paramètre (ou vecteur de paramètre) et x pour les données.

Vous pouvez placer un prior sur θ, p(θ)et vous pourriez avoir un modèle p(x|θ)ce qui donne la probabilité de vos données compte tenu du modèle. Vous pouvez ensuite utiliser la règle / théorème de Bayes pour "inverser" ceci et obtenirp(θ|x).

Ce n'est que dans un ensemble d'exemples relativement restreint qu'il est possible d'obtenir des solutions sous forme fermée pour p(θ|x). Pour les cas arbitraires, vous vous rapprochez souvent de la distribution postérieure en utilisant certaines méthodes standard dans les statistiques bayésiennes - par exemple, les deux approches générales les plus courantes sont la chaîne de Markov Monte Carlo ou les Bayes variationnels.

Supposons que vous vous intéressez à un cas simple où une forme fermée postérieure existe. Un exemple de ceci serait sip(θ) est une normale standard (gaussienne avec variance unitaire et moyenne nulle) et p(x|θ) est une normale avec une valeur moyenne de θ et variance unitaire.

Je vais omettre les facteurs de normalisation pour plus de commodité. Notez également que le dénominateur dans la règle de Bayes a tendance à simplement renormaliser les choses:

p(θ|x)e(xθ)2/2eθ2/2
Combinons les exposants et complétons le carré
(xθ)2/2θ2/2(x22θx+θ2)θ2
Rappelez-vous que x est fixé ici car il a été observé et nous voulons nous attendre à ce que notre réponse soit en termes de celui-ci. Complétez le carré et voyez que l'exposant est(θx/2)2dont d'autres termes dépendent de x. Donc:
p(θ|X)e-une(θ-X/2)2

où «a» est un facteur qui peut être obtenu par comptabilité. Notez que le postérieur est une distribution normale avec une valeur moyenne x / 2. Essayez de calculer la variance par vous-même.

Notez que notre réponse a un sens intuitif ... le prieur a dit que θ est nul et nous observons un échantillon X qui a une valeur attendue de θ. Puisque la variance de l'a priori et de la distributionp(X|θ)sont de même ampleur, nous leur faisons également confiance. En conséquence, notre postérieure est une distribution avec une moyenne qui est la moyenne deX et 0 et qui finit par avoir une variance plus petite que l'initiale p(X|θ) ou p(X) (non illustré ici).

Pour la comparaison des modèles, vous pouvez regarder un ratio:

p(X|θ1)p(X|θ2)

C'est ce qu'on appelle le rapport de vraisemblance (voir wikipedia ou ailleurs). Ici, vous n'avez pas besoin du postérieur, vous regardez simplement comment (relativement) probablement vos données (ou observations) sont données soitθ1 ou θ2 étant le paramètre du modèle qui a généré vos observations.

J'espère que cela t'aides.


Désolé, votre réponse est incorrecte. Le facteur Bayes n'est pas défini de cette façon!
Xi'an

Pour la comparaison des modèles, j'ai décrit le rapport de vraisemblance. Au départ, j'ai utilisé par erreur le terme facteur Bayes.
Josh

Sauf que tu ne sais pas θ1 et θ2qui a généré les observations.
Xi'an

Je voulais simplement décrire le cas simple dans lequel vous avez deux valeurs hypothétiques des paramètres du modèle et vous souhaitez comparer la façon dont les données en découlent. Vous avez convenu que si vous avez deux formes de modèle et que vous souhaitez les comparer sans connaître les paramètres spécifiques, votre réponse fournit la bonne approche.
Josh
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.