Dans le cas spécifique, l'espace des paramètres est fini ou dénombrable infini la perte postérieure associée à la perte d'indicateur est égale à la probabilité de se tromper et il est minimisé lorsque la probabilité postérieure d'être correcte est maximisée. Cela signifie que est le mode de la distribution postérieure ou MAP.& thetav = { θ 1 , θ 2 , ... } P ( θ ≠ θ | x ) P ( θ = θ | x ) θΘ
Θ = { θ1, θ2, … }
P(θ^≠θ|x)P(θ^=θ|x)θ^
Cependant, cette association de MAP et de perte est un "théorème populaire" en ce qu'elle est incorrecte dans la plupart des paramètres, c'est-à-dire qu'elle ne s'applique pas aux espaces de paramètres continus où pour tous les et cela entre en conflit avec les résultats de Druihlet et Marin (BA, 2007), qui soulignent que le MAP dépend en fin de compte du choix de la mesure dominante. (Même si la mesure de Lebesgue est implicitement choisie comme valeur par défaut.)P ( θ = θ | x ) = 0 θ0−1P(θ^=θ|x)=0θ^
Par exemple, Evans et Jang ont publié un article arXiv en 2011 où ils discutent du lien entre le MAP, les estimateurs de moindre surprise relative (ou de probabilité de profil maximale) et les fonctions de perte. Le cœur du problème est que ni les estimateurs MAP ni les MLE ne sont vraiment justifiés par une approche théorique de la décision, au moins dans un espace de paramètres continu. Et que la mesure dominante [arbitrairement] choisie sur l'espace des paramètres impacte la valeur du MAP, comme l'ont démontré Druihlet et Marin en 2007. Ils commencent dans le cas fini par la fonction de perte
L(θ,d)=I{Ψ(θ)≠d)/πΨ(Ψ(θ))
où ils considèrent l'estimation de la transformée Ψ (θ) par d, inversement pondérée par le prior marginal sur cette transformée. Dans le cas particulier de la transformation d'identité, cette fonction de perte conduit au MLE comme estimateur de Bayes. Dans le cas général, l'estimateur de Bayes est l'estimateur du maximum de vraisemblance du profil (LRSE). Cependant, cette fonction de perte ne se généralise pas à des espaces de paramètres infiniment comptables (et évidemment continus) et dans de tels paramètres, les auteurs ne peuvent fournir des LRSE que comme limites des procédures de Bayes. La fonction de perte adoptée dans le cas dénombrable est par exemple
L(θ,d)=I{Ψ(θ)≠d}/max{η,πΨ(Ψ(θ))}
avec la borne décroissante à zéro. Dans le cas continu, l'indicateur ne fonctionne plus, donc le choix fait par les auteurs est de discrétiser l'espace Ψ (Θ) par un choix spécifique d'une partition de billes dont les diamètres λ vont à zéro. Dans l'esprit de Druihlet et Marin, ce choix dépend d'une métrique (et d'autres conditions de régularité). De plus, le LRSE lui-même
dépend de la version choisie pour les densités (sinon de la mesure dominante), sauf si une impose partout l'égalité Bayes
partout, quand
et
maxψπψ(ψ|x)/πψ(θ)
πψ(ψ|x)/πψ(θ)=f(x|ψ)/m(x)
f(x|ψ)=∫{θ;Ψ(θ)=ψ}f(x|θ)π(θ)dθ
m(x)=∫f(x|θ)π(θ)dθ
dans l'esprit de
notre article paradoxal Savage-Dickey .
Robert Bassett et Julio Deride ont publié un article en 2016 sur la position des MAP dans la théorie de la décision bayésienne.
«… Nous fournissons un contre-exemple à la notion communément admise d'estimateurs MAP comme limite d'estimateurs Bayes ayant une perte de 0-1.
Les auteurs mentionnent mon livre The Bayesian Choice mentionnant cette propriété sans plus de précautions et je suis tout à fait d'accord pour être insouciant à cet égard! La difficulté tient à ce que la limite des maximiseurs n'est pas nécessairement la maximisation de la limite. L'article comprend un exemple à cet effet, avec un a priori comme ci-dessus, associé à une distribution d'échantillonnage qui ne dépend pas du paramètre. Les conditions suffisantes qui y sont proposées sont que la densité postérieure est presque sûrement correcte ou quasi-concave.
Voir également une caractérisation alternative des estimateurs MAP par Burger et Lucka comme estimateurs bayésiens appropriés sous un autre type de fonction de perte , quoique plutôt artificielle. Les auteurs de cet article arXived partent d'une distance basée sur le prieur; appelée distance de Bregman, qui peut être la distance quadratique ou entropique en fonction de l'avant. Définition d'une fonction de perte qui est un mélange de cette distance de Bregman et de la distance quadratique
||K(u^−u)||2+2Dπ(u^,u)
produit le MAP comme estimateur de Bayes. On peut encore s'interroger sur la mesure dominante mais la fonction de perte et l'estimateur qui en résulte dépendent clairement du choix de la mesure dominante… (La perte dépend de la précédente mais ce n'est pas un inconvénient en soi.)