J'ai une expérience que je vais essayer de résumer ici. Imaginez que je lance trois pierres blanches devant vous et vous demande de juger de leur position. J'enregistre une variété de propriétés des pierres et votre réponse. Je le fais sur un certain nombre de sujets. Je génère deux modèles. L'un est que la pierre la plus proche de vous prédit votre réponse, et l'autre est que le centre géométrique des pierres prédit votre réponse. Donc, utiliser lmer dans RI pourrait écrire.
mNear <- lmer(resp ~ nearest + (1|subject), REML = FALSE)
mCenter <- lmer(resp ~ center + (1|subject), REML = FALSE)
MISE À JOUR ET CHANGEMENT - version plus directe qui intègre plusieurs commentaires utiles
Je pourrais essayer
anova(mNear, mCenter)
Ce qui est incorrect, bien sûr, car ils ne sont pas imbriqués et je ne peux pas vraiment les comparer de cette façon. Je m'attendais à ce que anova.mer lance une erreur mais ce n'est pas le cas. Mais l'imbrication possible que je pourrais essayer ici n'est pas naturelle et me laisse encore des déclarations un peu moins analytiques. Lorsque les modèles sont imbriqués naturellement (par exemple quadratique sur linéaire), le test n'est que dans un sens. Mais dans ce cas, que signifierait avoir des résultats asymétriques?
Par exemple, je pourrais faire un modèle trois:
mBoth <- lmer(resp ~ center + nearest + (1|subject), REML = FALSE)
Ensuite, je peux anova.
anova(mCenter, mBoth)
anova(mNearest, mBoth)
C'est juste à faire et maintenant je trouve que le centre ajoute à l'effet le plus proche (la deuxième commande) mais BIC monte en fait quand le plus proche est ajouté au centre (correction pour la parcimonie inférieure). Cela confirme ce qui était suspecté.
Mais cela suffit-il? Et est-ce juste lorsque le centre et le plus proche sont si fortement corrélés?
Existe-t-il un meilleur moyen de comparer analytiquement les modèles lorsqu'il ne s'agit pas d'ajouter et de soustraire des variables explicatives (degrés de liberté)?