MCMC et augmentation des données


8

J'ai regardé une question d'augmentation de données MCMC; la forme générale de la question est la suivante:

Supposons que les données recueillies sur un processus suggèrent et qu'un a priori pour le paramètre de débit soit suggéré comme . Les données sont enregistrées et présentées sous une forme typique (c'est-à-dire le nombre d'occurrences de chaque valeur pour de à ), cependant, les données recueillies ne font pas de discrimination dans les cas où (c'est-à-dire toutes les occurrences où et sont regroupées en une seule catégorie).XiPois(λ)λExp(λ0)Xi0nXi1Xi=0Xi=1

Compte tenu des données, de la probabilité et de la priorité décrites ci-dessus, la question demande:

  • La forme postérieure de ,λ

  • Le nombre d'occurrences où .Xi=0

Je ne sais pas vraiment comment répondre à cette question, mais je suis conscient que l'échantillonnage de Gibbs peut être utilisé dans l'augmentation des données. Quelqu'un at-il des informations sur la façon dont cela pourrait être fait?

ÉDITER:

Je dois préciser que c'est principalement la deuxième partie (le nombre d'occurrences où ) dont je ne suis pas sûr. Pour la première partie (la forme postérieure de ), étant donné la vraisemblance et le prior suggéré, j'ai raisonné (bien que je sois heureux d'être corrigé):Xi=0λ

Donné:

π(λ|x)p(x|λ)×p(λ)

Donc, pour le modèle donné ci-dessus:

π(λ|x)=λi=1nxii=1nxi!enλ×λ0eλλ0

Simplifier les rendements:

π(λ|x)=λi=1nxii=1nxi!eλ(n+λ0)λ0

qui est proportionnelle à (et donc la forme postérieure est donnée par):

π(λ|x)λi=1nxieλ(n+λ0)λ0

Réponses:


5

Votre réponse ne tient pas compte du fait que les observations égales à zéro et à une sont fusionnées: ce que vous avez calculé est le postérieur pour les données complètes de Poisson , plutôt que pour les données agrégées ou fusionnées , .(X1,,Xn)(X1,,Xn)

Si l'on prend la convention selon laquelle l'observation correspond à ou et l'observation à , la densité du vecteur observé est (après quelques algèbre et factorisation) où est le nombre de fois les sont égaux à un. Le dernier terme entre parenthèses ci-dessus est la probabilité d'obtenir 0 ou 1 dans un tirage de Poisson.Xi=1Xi=1Xi=0Xi=k>1Xi=k(X1,,Xn)

π(λ|x1,,xn)λi=1nxiI(xi>1)exp{λ(λ0+n)}×{1+λ}n1
n1xi

Voici donc votre postérieur vrai / observé. De là, vous pouvez implémenter un échantillonneur Gibbs en

  1. Générer les "observations manquantes" données et les observations, à savoir simuler , qui est donnée par λp(xi|λ,xi=1)
    P(xi=0|λ,xi=1)=1P(xi=1|λ,xi=1)=11+λ.
  2. Génération de étant donné les "données complétées", ce qui revient à comme vous l'avez déjà calculé.λ
    λ|x1,,xnG(ixi+1,n+λ0)

(Si vous voulez plus de détails, l'exemple 9.7, p.346, dans mon livre sur les méthodes statistiques de Monte Carlo avec George Casella couvre exactement ce paramètre.)


2
(2) Tout algorithme MCMC peut commencer avec des valeurs arbitraires car la chaîne de Markov est récurrente, c'est l'idée centrale derrière les méthodes Monte Carlo de la chaîne de Markov. Notez que est un paramètre de l'a priori: il est choisi a priori et ne change pas une fois les données observées. λ0
Xi'an

2
(3) Lors de l'échantillonnage à partir de la distribution Gamma à l'étape 2 de l'échantillonneur Gibbs, notez que je conditionne les données complètes, générées à l'étape 1 de l'échantillonneur Gibbs. Je "connais" donc toutes les valeurs des , même celles pour lesquelles . Veuillez essayer de comprendre la distinction entre les et les , c'est l'idée fondamentale derrière le principe d'augmentation des données. xixi=1xixi
Xi'an

2
(1) La partie correspond aux observations groupées. [{λ+1}exp(λ)]n1
Xi'an

2
(2) Il s'agit d'une probabilité conditionnelle (veuillez essayer de faire le calcul par vous-même):P(xi=0|λ,xi=1)=P(xi=0,xi=1|λ)/P(xi=1|λ)=P(xi=0|λ)/P(xi=1|λ)
Xi'an

2
(3) L'échantillonnage de Gibbs fonctionne par conditions. Donc à l'étape 2, nous conditionnons sur les nous avons simulés à l'étape 1 (et à l'étape 1 sur le nous avons simulé à l'étape 2). Cela signifie que ces sont connus (même s'ils changeront à la prochaine itération), tout comme la somme. Vous devez absolument lire une introduction à Gibbs si ce point fondamental ne vous est pas clair ...xiλxi
Xi'an
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.