Constante de normalisation dans le théorème de Bayes


15

Pr(data)

Pr(parametersdata)=Pr(dataparameters)Pr(parameters)Pr(data)

est appelé une constante de normalisation . C'est quoi exactement? Quel est son objectif? Pourquoi ressemble-t-il à ? Pourquoi cela ne dépend-il pas des paramètres?Pr(data)


4
Lorsque vous intégrez , vous intégrez sur les paramètres et le résultat n'a donc pas de terme dépendant des paramètres, de la même manière que x = 2 x = 0 x yf(data|params)f(params) ne dépend pas de x . x=0x=2xydx=2yx
Henry

Réponses:


16

Le dénominateur est obtenu en intégrant les paramètres de la probabilité de jointure Pr ( données , paramètres ) . Il s'agit de la probabilité marginale des données et, bien sûr, elle ne dépend pas des paramètres car ceux-ci ont été intégrés.Pr(data)Pr(data,parameters)

Maintenant, depuis:

  • ne dépend pas des paramètres pour lesquels on veut faire l'inférence;Pr(data)
  • est généralement difficile à calculer sous une forme fermée;Pr(data)

on utilise souvent l'adaptation suivante de la formule de Baye:

Pr(parametersdata)Pr(dataparameters)Pr(parameters)

Fondamentalement, n'est rien d'autre qu'une "constante de normalisation", c'est-à-dire une constante qui fait que la densité postérieure s'intègre à une .Pr(data)


2
Qu'entendez-vous exactement par «en intégrant les paramètres»? Quelle est la signification précise de «l'intégration» dans ce contexte?
nbro

2
@nbro: Je veux dire Pr (données) = intégrale sur les paramètres de Pr (données, paramètres)
ocram

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.