Je republie une "réponse" à une question que j'avais posée il y a environ deux semaines: Pourquoi le Jeffreys est-il utile avant? C'était vraiment une question (et je n'avais pas non plus le droit de poster des commentaires à l'époque), donc j'espère que c'est OK de le faire:
Dans le lien ci-dessus, il est discuté que la caractéristique intéressante de Jeffreys prior est que, lors de la reparamétrie du modèle, la distribution postérieure résultante donne des probabilités postérieures qui obéissent aux restrictions imposées par la transformation. Par exemple, comme discuté là, lors du passage de la probabilité de succès dans l'exemple bêta-Bernoulli des cotes , il devrait être le cas que l'un répond postérieure .
Je voulais créer un exemple numérique d'invariance de Jeffreys avant de transformer en cotes , et, plus intéressant encore, le manque d'autres priors (disons, Haldane, uniformes ou arbitraires).
Maintenant, si le postérieur de la probabilité de succès est Beta (pour tout Beta antérieur, pas seulement Jeffreys), le postérieur de la cote suit une distribution Beta du second type (voir Wikipedia) avec les mêmes paramètres . Ensuite, comme le montre l'exemple numérique ci-dessous, il n'est pas trop surprenant (du moins pour moi) qu'il existe une invariance pour tout choix de Beta préalable (jouer avec alpha0_U
etbeta0_U
), pas seulement Jeffreys, cf. la sortie du programme.
library(GB2)
# has the Beta density of the 2nd kind, the distribution of theta/(1-theta) if theta~Beta(alpha,beta)
theta_1 = 2/3 # a numerical example as in the above post
theta_2 = 1/3
odds_1 = theta_1/(1-theta_1) # the corresponding odds
odds_2 = theta_2/(1-theta_2)
n = 10 # some data
k = 4
alpha0_J = 1/2 # Jeffreys prior for the Beta-Bernoulli case
beta0_J = 1/2
alpha1_J = alpha0_J + k # the corresponding parameters of the posterior
beta1_J = beta0_J + n - k
alpha0_U = 0 # some other prior
beta0_U = 0
alpha1_U = alpha0_U + k # resulting posterior parameters for the other prior
beta1_U = beta0_U + n - k
# posterior probability that theta is between theta_1 and theta_2:
pbeta(theta_1,alpha1_J,beta1_J) - pbeta(theta_2,alpha1_J,beta1_J)
# the same for the corresponding odds, based on the beta distribution of the second kind
pgb2(odds_1, 1, 1,alpha1_J,beta1_J) - pgb2(odds_2, 1, 1,alpha1_J,beta1_J)
# same for the other prior and resulting posterior
pbeta(theta_1,alpha1_U,beta1_U) - pbeta(theta_2,alpha1_U,beta1_U)
pgb2(odds_1, 1, 1,alpha1_U,beta1_U) - pgb2(odds_2, 1, 1,alpha1_U,beta1_U)
Cela m'amène aux questions suivantes:
- Dois-je faire une erreur?
- Si non, y a-t-il un résultat comme s'il n'y avait pas de manque d'invariance dans les familles conjuguées, ou quelque chose comme ça? (Une inspection rapide m'amène à soupçonner que je ne pourrais pas, par exemple, également produire un manque d'invariance dans le cas normal-normal.)
- Connaissez-vous un exemple ( de préférence simples) dans lequel nous ne se manque d'invariance?