Disons que nous avons un modèle
mod <- Y ~ X*Condition + (X*Condition|subject)
# Y = logit variable
# X = continuous variable
# Condition = values A and B, dummy coded; the design is repeated
# so all participants go through both Conditions
# subject = random effects for different subjects
summary(model)
Random effects:
Groups Name Variance Std.Dev. Corr
subject (Intercept) 0.85052 0.9222
X 0.08427 0.2903 -1.00
ConditionB 0.54367 0.7373 -0.37 0.37
X:ConditionB 0.14812 0.3849 0.26 -0.26 -0.56
Number of obs: 39401, groups: subject, 219
Fixed effects:
Estimate Std. Error z value Pr(>|z|)
(Intercept) 2.49686 0.06909 36.14 < 2e-16 ***
X -1.03854 0.03812 -27.24 < 2e-16 ***
ConditionB -0.19707 0.06382 -3.09 0.00202 **
X:ConditionB 0.22809 0.05356 4.26 2.06e-05 ***
Nous observons ici un ajustement singulier, car la corrélation entre l'ordonnée à l'origine et les effets aléatoires x est -1. Maintenant, selon ce lien utile, une façon de traiter ce modèle est de supprimer les effets aléatoires d'ordre supérieur (par exemple, X: ConditionB) et de voir si cela fait une différence lors du test de singularité. L'autre consiste à utiliser l'approche bayésienne, par exemple le blme
package pour éviter la singularité.
Quelle est la méthode préférée et pourquoi?
Je pose cette question car l'utilisation du premier ou du second conduit à des résultats différents - dans le premier cas, je supprimerai l'effet aléatoire X: ConditionB et je ne pourrai pas estimer la corrélation entre les effets aléatoires X et X: ConditionB. En revanche, l'utilisation blme
me permet de conserver X: ConditionB et d'estimer la corrélation donnée. Je ne vois aucune raison pour laquelle je devrais même utiliser les estimations non bayésiennes et supprimer les effets aléatoires lorsque des ajustements singuliers se produisent alors que je peux tout estimer avec l'approche bayésienne.
Quelqu'un peut-il m'expliquer les avantages et les problèmes de l'une ou l'autre méthode pour gérer les crises singulières?
Je vous remercie.