Avantages relatifs de l'imputation multiple et de la maximisation des attentes (EM)


8

J'ai un problème où

y=a+b

J'observe y, mais ni ni . Je veux estimerab

b=f(x)+ϵ

Je peux estimer , en utilisant une sorte de modèle de régression. Cela me donne . Je pourrais alors estimerab^

b^=f(x)+ϵ

Premier problème: un modèle de régression pour prédire pourrait conduire à être négatif, ce qui n'aurait aucun sens. Je ne sais pas comment contourner cela (pas le genre de problème que j'ai souvent traité), mais cela semble être le genre de chose que les autres traitent régulièrement. Une sorte de GLM non gaussien?ab^

Le principal problème est de savoir comment tenir compte de l'incertitude dans le modèle principal qui provient de l'estimation . J'ai déjà utilisé l'imputation multiple pour les covariables manquantes. Mais c'est un "paramètre latent" manquant. Alternativement, ce sont les données sur les résultats, qui semblent correctes à imputer . Cependant, j'entends souvent parler d'EM utilisé pour les paramètres "latents". Je ne sais pas pourquoi, et je ne sais pas non plus si la ME est meilleure dans ces contextes. L'IM est intuitif à la fois pour comprendre, implémenter et communiquer. EM est intuitif à comprendre, mais semble plus difficile à implémenter (et je ne l'ai pas fait). b^

L'EM est-il supérieur pour le type de problème que j'ai ci-dessus? Si oui, pourquoi? Deuxièmement, comment peut-on l'implémenter dans R pour un modèle linéaire ou pour un modèle semi-paramétrique (GAM)?


Une idée consiste à utiliser la distribution bêta pour modéliser puis à définirc=ayb^=y(1c^)
probabilités

Réponses:


1

L'utilité ou non d'utiliser les GLM dépend de la distribution de . Je serais enclin à utiliser un modèle des moindres carrés non linéaires pour le tout.y

Donc, si votre modèle de régression est où sont les prédicteurs et sont les paramètres du modèle de régression pour , et votre modèle pour est mais où est limité à être non négatif, vous pouvez écrire et adapter un modèle comme celui-ci:a=Zα+νZαabb=f(x)+ϵf(x)f(x)=exp(ψ(x))

y=Zα+exp(ψ(x))+η

où est la somme des deux termes de bruit individuels. (Si vous voulez vraiment que sans aucune erreur, vous devez le faire différemment; ce n'est pas vraiment un problème de statistiques autant qu'un problème d'approximation et vous voudrez probablement regarder les normes de l'infini alors.)ηy=a+b

Si vous mettez par exemple une spline de régression cubique pour ce serait un moyen facile d'obtenir une fonction lisse générale. Ce modèle pourrait être ajusté par des moindres carrés non linéaires. (En effet, certains algorithmes peuvent profiter de la linéarité d' pour simplifier et accélérer le calcul.)ψa

Selon ce que vous supposez à propos de ou , vous pouvez faire d'autres choses à la place.yf

Cela ne règle pas encore vraiment le problème d'imputation. Cependant, ce type de cadre de modèle peut être inséré dans quelque chose comme votre suggestion d'utiliser EM.


Merci pour le commentaire. En effet, y = a + b sans erreur (ou plus précisément, l'erreur est ignorable et ignorée). Plus précisément encore, y, a et b ne sont pas tous définis en dessous de zéro. Donc ma régression où je modélise un ne peut pas me donner qui a des éléments inférieurs à zéro. J'ai contourné cela en codant en bas les valeurs ajustées (et en codant en haut pour qu'elles ne conduisent pas b -> <0), mais c'est un hack et il pourrait y avoir des solutions plus élégantes. a^
generic_user

C'est beaucoup d'informations pertinentes qui devraient être précisées dans votre question, je pense.
Glen_b -Reinstate Monica
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.