Douglas Bates déclare que les modèles suivants sont équivalents «si la matrice de variance-covariance pour les effets aléatoires à valeur vectorielle a une forme spéciale, appelée symétrie composée» ( diapositive 91 dans cette présentation ):
m1 <- lmer(y ~ factor + (0 + factor|group), data)
m2 <- lmer(y ~ factor + (1|group) + (1|group:factor), data)
Plus précisément, Bates utilise cet exemple:
library(lme4)
data("Machines", package = "MEMSS")
m1a <- lmer(score ~ Machine + (0 + Machine|Worker), Machines)
m2a <- lmer(score ~ Machine + (1|Worker) + (1|Worker:Machine), Machines)
avec les sorties correspondantes:
print(m1a, corr = FALSE)
Linear mixed model fit by REML ['lmerMod']
Formula: score ~ Machine + (0 + Machine | Worker)
Data: Machines
REML criterion at convergence: 208.3112
Random effects:
Groups Name Std.Dev. Corr
Worker MachineA 4.0793
MachineB 8.6253 0.80
MachineC 4.3895 0.62 0.77
Residual 0.9616
Number of obs: 54, groups: Worker, 6
Fixed Effects:
(Intercept) MachineB MachineC
52.356 7.967 13.917
print(m2a, corr = FALSE)
Linear mixed model fit by REML ['lmerMod']
Formula: score ~ Machine + (1 | Worker) + (1 | Worker:Machine)
Data: Machines
REML criterion at convergence: 215.6876
Random effects:
Groups Name Std.Dev.
Worker:Machine (Intercept) 3.7295
Worker (Intercept) 4.7811
Residual 0.9616
Number of obs: 54, groups: Worker:Machine, 18; Worker, 6
Fixed Effects:
(Intercept) MachineB MachineC
52.356 7.967 13.917
Quelqu'un peut-il expliquer la différence entre les modèles et comment se m1
réduit à m2
(étant donné la symétrie composée) de manière intuitive?
lme4
syntaxe. Il serait utile - et d'élargir le bassin de répondeurs potentiels - si vous les expliquiez à des personnes peu familières lme4
.