Je souscris à l'excellente réponse de Xi'an , soulignant qu'il n'y a pas de simple précédent qui soit "non informatif" au sens où il ne porte aucune information. Pour approfondir ce sujet, je voulais souligner que l’une des solutions possibles est d’entreprendre une analyse bayésienne dans le cadre improbable des probabilités (voir notamment Walley 1991 , Walley 2000 ). Dans ce cadre, la croyance antérieure est représentée par un ensemble de distributions de probabilitéet ceci conduit à un ensemble correspondant de distributions postérieures. Cela pourrait sembler ne pas être très utile, mais c'est en fait assez étonnant. Même avec un ensemble très large de distributions antérieures (où certains moments peuvent aller sur toutes les valeurs possibles), vous obtenez toujours une convergence postérieure vers un seul postérieur, tel que .n→∞
Ce cadre analytique a été axiomatisé par Walley comme sa propre forme spéciale d’analyse probabiliste, mais est essentiellement équivalent à une analyse bayésienne robuste utilisant un ensemble de priors, produisant un ensemble correspondant de postérieurs. Dans de nombreux modèles, il est possible de définir un ensemble de "a priori" "non informatif" qui permet à certains moments (par exemple, la moyenne antérieure) de varier sur toute la plage de valeurs possible, tout en produisant de précieux résultats postérieurs, où les moments postérieurs sont liés. plus étroitement. On peut soutenir que cette forme d’analyse peut être qualifiée de "non informative", du moins en ce qui concerne les moments susceptibles de varier sur toute la plage autorisée.
Un exemple simple - modèle de Bernoulli: supposons que nous observions les données où est le paramètre inconnu inconnu. Habituellement, nous utilisions une densité bêta en tant qu'antérieur (à la fois les antécédents de Jeffrey et de référence sont de cette forme). Nous pouvons spécifier cette forme de densité antérieure en fonction de la moyenne antérieure et d'un autre paramètre comme :X1,...,Xn|θ∼IID Bern(θ)θμκ>1
π0(θ|μ,κ)=Beta(θ|μ,κ)=Beta(θ∣∣α=μ(κ−1),β=(1−μ)(κ−1)).
(Ce formulaire donne les moments précédents et .) Maintenant, dans un modèle imprécis, nous pourrions définissez la valeur before pour qu'elle comprenne l' ensemble de toutes ces distributions antérieures sur toutes les valeurs attendues possibles , mais avec l'autre paramètre fixé pour contrôler la précision sur la plage des valeurs moyennes. Par exemple, nous pourrions utiliser le jeu de priors:E(θ)=μV(θ)=μ(1−μ)/κ
P0≡{Beta(μ,κ)∣∣0⩽μ⩽1}.
Supposons que nous observions indicateurs positifs dans les données. Ensuite, en utilisant la règle de mise à jour pour le modèle Bernoulli-beta, l'ensemble postérieur correspondant est:s=∑ni=1xi
Px={Beta(s+μ(κ−1)n+κ−1,n+κ)∣∣0⩽μ⩽1}.
La plage de valeurs possibles pour l'attente postérieure est la suivante:
sn+κ−1⩽E(θ|x)⩽s+κ−1n+κ−1.
Ce qui est important ici, c’est que, même si nous avons commencé avec un modèle qui était «non informatif» par rapport à la valeur attendue du paramètre (l’attente antérieure allait de toutes les valeurs possibles), nous aboutissons néanmoins à des inférences postérieures informatives en ce qui concerne à l’attente postérieure du paramètre (elles s’étendent maintenant sur un ensemble de valeurs plus étroit). Comme cette plage de valeurs est réduite à un seul point, qui est la valeur vraie de .n→∞θ