J'ai un ensemble de données composé d'une série de décomptes mensuels de «bâtons cassés» provenant d'une poignée de sites. J'essaie d'obtenir une seule estimation récapitulative à partir de deux techniques différentes:
Technique 1: Ajustez un «bâton cassé» avec un GLM de Poisson avec une variable indicatrice 0/1, et utilisez une variable de temps et de temps ^ 2 pour contrôler les tendances dans le temps. L'estimation de cette variable indicatrice 0/1 et SE sont regroupées en utilisant une technique de méthode des moments assez directe et descendante, ou en utilisant le package tlnise dans R pour obtenir une estimation "bayésienne". C'est similaire à ce que Peng et Dominici font avec les données sur la pollution atmosphérique, mais avec moins de sites (~ une douzaine).
Technique 2: abandonner une partie du contrôle spécifique au site pour les tendances dans le temps et utiliser un modèle mixte linéaire. Particulièrement:
lmer(cases ~ indicator + (1+month+I(month^2) + offset(log(p)), family="poisson", data=data)
Ma question porte sur les erreurs types qui ressortent de ces estimations. L'erreur standard de la technique 1, qui utilise en fait un ensemble d'heures hebdomadaire plutôt que mensuel et devrait donc avoir plus de précision, a une erreur standard sur l'estimation de ~ 0,206 pour l'approche de la méthode des moments et de ~ 0,306 pour l'informatique.
La méthode lmer donne une erreur standard de ~ 0,09. Les estimations des effets sont raisonnablement proches, il ne semble donc pas qu'elles se concentrent uniquement sur différentes estimations sommaires, car le modèle mixte est beaucoup plus efficace.
Est-ce quelque chose que l'on peut raisonnablement attendre? Si oui, pourquoi les modèles mixtes sont-ils tellement plus efficaces? S'agit-il d'un phénomène général ou d'un résultat spécifique de ce modèle?