Question sur la façon d'utiliser EM pour estimer les paramètres de ce modèle


8

J'essaie de comprendre EM et d'essayer de déduire les paramètres de ce modèle en utilisant cette technique, mais j'ai du mal à comprendre comment commencer:

Donc, j'ai un modèle de régression linéaire pondéré comme suit où j'ai des observations et les observations correspondantes . Le modèle de la relation entre et est un modèle de régression linéaire pondéré et les hypothèses de distribution sont les suivantes:X=(xi,x2....xn)Y=(y1,y2....yn)XY

yiN(βTxi,σ2wi)
βN(0,Σβ)
wiG(a,b)

Ici sont les paramètres de régression et le modèle permet des variances inégales en ayant les variables de réponse pour avoir des poids individuels sur la variance. Mon objectif est de trouver la relation linéaire la plus probable donnée par les paramètres .ββ

Donc, je peux maintenant écrire le log-postérieur comme suit:

logP(Y,β,w|X)=i=1n(logP(yi|xi,β,wi)+logP(wi))+logP(β)

Maintenant, j'ai essayé de comprendre EM et je ne suis pas sûr que ma compréhension soit encore complète mais comme je le comprends, pour commencer à estimer les paramètres, je commence par prendre l'espérance de la distribution log-postérieure par rapport aux paramètres latents / cachés qui dans mon cas sont et . Cette valeur attendue requise sera donc:logP(Y,β,w|X)βw

P(β,w|X)logP(Y,β,w|X)dwdβ

Cependant, je n'ai aucune idée de la façon de procéder à partir d'ici pour calculer cette attente. J'apprécierais grandement toute suggestion sur la prochaine étape. Je ne cherche pas quelqu'un pour me dériver toutes les choses nécessaires, mais juste un coup de pouce dans la bonne direction sur ce que je devrais chercher à résoudre dans les prochaines étapes.


êtes-vous sûr que EM comme dans Expectation-Maximization s'applique à votre problème?
Xi'an

Je le pense. J'essaie de comprendre un article et ils utilisent EM pour résoudre ce problème de régression linéaire bayésienne pondérée.
Luca

Les variables latentes ne peuvent pas être et les . Si vous êtes intéressé par , les variables latentes sont probablement les . Dans ce cas, vous devez trouver la fonction log-vraisemblance complète attendue de l'étape E et l'optimiser dans dans l'étape M. βwiβwiQ(β|β0)β
Xi'an

Merci pour votre commentaire. Si je peux essayer de clarifier, l'article mentionne que nous souhaitons maximiser la probabilité de log incomplète mais nous travaillons avec la vraisemblance de données complète donnée par: , qui pour moi ressemblait à la distribution postérieure dans cette configuration. Donc, j'ai supposé que est traité comme une variable cachée dans cette configuration. logp(Y|X)logP(y,w,β|X)β
Luca

2
Que savez-vous déjà de l'algorithme EM? Quel livre ou article avez-vous étudié à ce sujet? Partir de zéro sur un forum comme celui-ci sonne comme une mauvaise idée.
Xi'an

Réponses:


3

Permettez-moi de rappeler d'abord les bases de l'algorithme EM. Lorsque l'on recherche l'estimation du maximum de vraisemblance d'une vraisemblance de la forme l'algorithme procède par maximisation itérative (M) des log-vraisemblances complètes attendues (E), qui résulte en maximisant (en ) à l'itération la fonction L'algorithme doit donc commencer par identifier la variable latente et sa distribution conditionnelle.

f(x,z|β)dz,
βt
Q(β|βi)=logf(x,z|β)f(z|x,βt)dz
z

Dans votre cas, il semble que la variable latente soit faite des tandis que le paramètre d'intérêt est . Si vous traitez à la fois et tant que variables latentes, il ne reste aucun paramètre à optimiser. Cependant, cela signifie également que la version précédente de n'est pas utilisée.ϖwiββϖβ

Si nous regardons plus précisément le cas de , sa distribution conditionnelle est donnée par qui se qualifie comme distribution.wi

f(wi|xi,yi,β)wiexp{wi(yiβTxi)2/2σ2}×wia1exp{bwi}
G(a+1/2,b+(yiβTxi)2/2σ2)

La probabilité de log terminée étant la partie qui dépend on simplifie comme et la fonction est proportionnelle à optimisation de cette fonction dans équivaut à une régression linéaire pondérée, avec des poids

i12{log(wi)wi(yiβTxi)2/σ2}
β
iwi(yiβTxi)2/2σ2
Q(β|βt)
E[iwi(yiβTxi)2|X,Y,βt]=iE[wi|X,Y,βt](yiβTxi)2=ia+1/2b+(yiβtTxi)2/2σ2(yiβTxi)2
β
a+1/2b+(yiβtTxi)2/2σ2

Merci pour cela et je reviendrai là-dessus avec rigueur. Cependant, ce travail que je regarde traite également la comme une variable cachée. Ils mentionnent qu'ils prennent l'espérance avec la forme approximative de postérieur approximant comme . Donc, ce morceau m'a vraiment confus ...βQ(β,w)Q(w)Q(β)
Luca

1
Si vous traitez les deux et comme des variables latentes, il n'y a plus de paramètre ...βw
Xi'an

1
Peut-être que ce qu'ils ont dôme est l'estimation MAP au lieu de l'estimation ML. Si j'essaye de reformuler ceci comme l'estimation de MAP, je suppose que la distribution antérieure de entrerait en jeu? β
Luca

1
Une chose très rapide ... Je ne sais pas si vous voyez cela mais quand vous avez l'équation pour la log-vraisemblance complète, le premier terme n'est-il pas ? De plus, je suppose que le terme que vous montrez est le log-vraisemblance proportionnel à une constante. Je suis toujours confus avec ça quand les choses sont enroulées en constantes. log(wi)
Luca

1
correction faite: je mets devant toute l'expression. 1/2
Xi'an
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.