J'ai étudié la modélisation d'effets mixtes à l'aide du package lme4 dans R. J'utilise principalement la lmer
commande, je vais donc poser ma question via du code qui utilise cette syntaxe. Je suppose qu'une question générale facile pourrait être, est-il OK de comparer deux modèles construits en lmer
utilisant des ratios de vraisemblance basés sur des ensembles de données identiques? Je pense que la réponse doit être «non», mais je peux me tromper. J'ai lu des informations contradictoires sur la question de savoir si les effets aléatoires doivent être identiques ou non, et quelle composante des effets aléatoires signifie cela? Je vais donc vous présenter quelques exemples. Je vais les prendre à partir de données de mesures répétées en utilisant des stimuli de mots, peut-être que quelque chose comme Baayen (2008) serait utile pour l'interprétation.
Disons que j'ai un modèle où il y a deux prédicteurs d'effets fixes, nous les appellerons A et B, et quelques effets aléatoires ... des mots et des sujets qui les ont perçus. Je pourrais construire un modèle comme le suivant.
m <- lmer( y ~ A + B + (1|words) + (1|subjects) )
(Notez que j'ai intentionnellement omis data =
et nous supposerons que je veux toujours dire REML = FALSE
par souci de clarté)
Maintenant, parmi les modèles suivants, qui peuvent être comparés avec un rapport de vraisemblance à celui ci-dessus et qui ne le sont pas?
m1 <- lmer( y ~ A + B + (A+B|words) + (1|subjects) )
m2 <- lmer( y ~ A + B + (1|subjects) )
m3 <- lmer( y ~ A + B + (C|words) + (A+B|subjects) )
m4 <- lmer( y ~ A + B + (1|words) )
m5 <- lmer( y ~ A * B + (1|subjects) )
Je reconnais que l'interprétation de certaines de ces différences peut être difficile, voire impossible. Mais laissons cela de côté pendant une seconde. Je veux juste savoir s'il y a quelque chose de fondamental dans les changements ici qui empêche la possibilité de comparer. Je veux également savoir si, si les LR sont OK, et les comparaisons AIC également.