Terminologie de la moyenne bayésienne de probabilité postérieure avec un a priori uniforme


11

Si p Uniforme (0,1) et X Bin (n,p) , alors la moyenne postérieure de p est donnée par X+1n+2 .

Y a-t-il un nom commun pour cet estimateur? J'ai trouvé que cela résout de nombreux problèmes et j'aimerais pouvoir pointer les gens vers une référence, mais je n'ai pas pu trouver le bon nom pour cela.

Je me souviens vaguement de ce qu'on appelle quelque chose comme "l'estimateur + 1 / + 2" dans un livre de statistiques 101, mais ce n'est pas un terme très consultable.

Réponses:


11

Avec Unif(0,1)Beta(α0=1,β0=1) et la probabilité Binom(n,θ) montrant x succès dans n essais, la distribution postérieure est Beta(αn=1+x,βn=1+nx). (Cela se voit facilement en multipliant les noyaux du précédent et la probabilité d'obtenir le noyau du postérieur.)

Alors la moyenne postérieure est

μn=αnαn+β=x+1n+2.

Dans un contexte bayésien, il peut être préférable d' utiliser uniquement la terminologie moyenne postérieure . (La médiane de la distribution postérieure et le maximum de son PDF ont également été utilisés pour résumer les informations postérieures.)

Beta(1,1) Beta(12,12)μn=x+.5n+1.

p^=x+2n+4,p^=xn).

(3) Tous ces estimateurs ont pour effet de `` rétrécir l'estimateur vers 1/2 '' et ils ont donc été appelés `` estimateurs de rétrécissement '' (un terme beaucoup plus largement utilisé, en particulier dans l'inférence de James-Stein). Voir Réponse (+1) par @Taylor.



2
oui, mais comment cela aide-t-il avec la terminologie ?
BruceET

Cela facilite la dérivation que vous avez écrite. Je suppose que certaines personnes pourraient rencontrer cette question en recherchant réellement la dérivation elle-même.
Royi

3
(2) est vraiment ce qui m'intéressait. Je ne savais pas que l'estimateur était présenté pour des justifications purement fréquentistes. Dans les cas que je prescris comme solution, c'est toujours quelque chose comme la façon de calculer une probabilité lorsqu'un certain multinomial n'a pas été vu auparavant (c'est-à-dire, le regroupement sur le nombre de lettres et un cluster ne comprend pas de «z»), donc rien à faire avec les probabilités de couverture des CI. Je vous remercie!
Cliff AB

(0,1).

10

C'est ce qu'on appelle le lissage de Laplace , ou règle de succession de Laplace , comme Pierre-Simon Laplace l'a utilisé pour estimer la probabilité que le soleil se lève à nouveau demain: "Nous constatons donc qu'un événement s'est produit plusieurs fois, la probabilité qu'il se reproduise la prochaine fois est égal à ce nombre augmenté de l'unité, divisé par le même nombre augmenté de deux unités. "

Essai philosophique sur les probabilités par le marquis de Laplace


(+1) pour référence historique
BruceET

(+1) Les réponses de ceci et de @ BruceET étaient différentes mais correctes à ma question.
Cliff AB

5

.5


2
(+1) C'est vrai, c'est un estimateur de retrait. Je voulais un nom spécifique pour le cas binomial / multinomial afin que je puisse diriger d'autres chercheurs vers des informations sur cet estimateur exact afin qu'ils ne pensent pas que je dis simplement "ajoutez 1 aux choses jusqu'à ce que vous obteniez la réponse que vous voulez", mais aussi pas besoin de commencer par expliquer ce que sont les statistiques bayésiennes.
Cliff AB
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.