Il existe une réponse "théorique" et une réponse "pragmatique".
D'un point de vue théorique, lorsqu'un a priori est incorrect, le postérieur n'existe pas (enfin, regardez la réponse de Matthew pour une déclaration plus solide), mais peut être approximé par une forme limitative.
Si les données comprennent un échantillon conditionnellement iid de la distribution de Bernoulli avec le paramètre , et a la distribution beta avec les paramètres et , la distribution postérieure de est la distribution beta avec les paramètres ( observations, succès) et sa moyenne est . Si nous utilisons la distribution bêta incorrecte (et irréelle) avant avec les hypeparamètres précédents , et que nous prétendons queθ α β θ α + s , β + n - s n s ( α + s ) / ( α + β +θθαβθα + s , β+ n - snsα = β = 0 π ( θ ) ∝ θ - 1 ( 1 - θ ) - 1 θ s - 1 ( 1 - θ ) n - s( α + s ) / ( α + β+ n )α = β= 0π( θ ) ∝ θ- 1( 1 - θ )- 1, on obtient un postérieur propre proportionnel à , ie le pdf de la distribution beta avec les paramètres et exception d'un facteur constant. Il s'agit de la forme limitative du postérieur pour un a priori bêta avec les paramètres et (Degroot & Schervish, exemple 7.3.13). sn-sα→0β→0θs - 1( 1 - θ )n - s - 1sn - sα → 0β→ 0
Dans un modèle normal avec moyenne , variance connue , et une distribution antérieure pour , si la précision antérieure, , est petite par rapport à la précision des données, , alors la distribution postérieure est approximativement comme si :
c'est-à-dire que la distribution postérieure est approximativement celle qui résulterait de l'hypothèse que est proportionnelle à une constante pourσ 2 N ( μ 0 , τ 2 0 ) θ 1 / τ 2 0 n / σ 2 τ 2 0 = ∞ p ( θ ∣ x ) ≈ N ( θθσ2N( μ0, τ20)θ1 / τ20n / σ2τ20= ∞p ( θ ) θ ∈ ( - ∞ , ∞ ) τ 2 0
p ( θ ∣ x ) ≈ N( θ ∣ x¯, σ2/ n)
p ( θ )θ ∈ ( - ∞ , ∞ ), une distribution qui n'est pas strictement possible, mais la forme limite du postérieur à l' approche de (
Gelman et al. , p. 52).
τ20∞
D'un point de vue "pragmatique", lorsque
quel que soit , donc si dans
, puis . Des antérieurs incorrects peuvent être utilisés pour représenter le comportement local de la distribution antérieure dans la région où la probabilité est appréciable, par exemple . En supposant que pour une approximation suffisante, un a priori suit des formes telles que ou uniquement surp ( x ∣ θ ) = 0 p ( θ ) p ( x ∣ θ ) ≠ 0 ( a , b ) ∫ ∞ - ∞ p ( x ∣ θ ) p ( θ ) d θ = ∫ b a p ( x ∣p ( x ∣ θ ) p ( θ ) = 0p ( x ∣ θ ) = 0p ( θ )p ( x ∣ θ ) ≠ 0( a , b )( a , b ) f ( x ) = k , x ∈ ( - ∞ , ∞ ) f∫∞- ∞p ( x ∣ θ ) p ( θ ) dθ = ∫bunep ( x ∣ θ ) p ( θ ) dθ( a , b )F( x ) = k , x ∈ ( - ∞ , ∞ )( a , b ) θ U ( - ∞ , ∞ ) ( a ,F( x ) = k x- 1, x ∈ ( 0 , ∞ )( a , b ), qu'il arrive à zéro en dehors de cette plage, nous nous assurons que les priors réellement utilisés sont corrects ( Box et Tiao , p. 21). Donc, si la distribution précédente de est mais
est bornée, c'est comme si , c'est-à-dire . Pour un exemple concret, c'est ce qui se passe dans Stan : si aucun a priori n'est spécifié pour un paramètre, il reçoit implicitement un a priori uniforme sur son support et cela est traité comme une multiplication de la vraisemblance par une constante.θU( - ∞ , ∞ )θ ∼ U ( a , b ) p ( x ∣ θ ) p ( θ ) = p ( x ∣ θ ) k ∝ p ( x ∣ θ )( a , b )θ ∼ U( a , b )p ( x ∣ θ ) p ( θ ) = p ( x ∣ θ ) k ∝ p ( x ∣ θ )