J'ai regardé à travers cet aperçu des formules lm / lmer R par @conjugateprior et je suis devenu confus par l'entrée suivante:
Supposons maintenant que A est aléatoire, mais B est fixe et B est imbriqué dans A.
aov(Y ~ B + Error(A/B), data=d)
Ci-dessous, une formule de modèle mixte analogue lmer(Y ~ B + (1 | A:B), data=d)
est fournie pour le même cas.
Je ne comprends pas très bien ce que cela signifie. Dans une expérience où les sujets sont divisés en plusieurs groupes, nous aurions un facteur aléatoire (sujets) imbriqué dans un facteur fixe (groupes). Mais comment un facteur fixe peut-il être imbriqué dans un facteur aléatoire? Quelque chose de fixe imbriqué dans des sujets aléatoires? Est-ce même possible? Si ce n'est pas possible, ces formules R ont-elles du sens?
Cette vue d' ensemble est mentionné partiellement fondé sur les pages de la personnalité-projet sur faire ANOVA dans R se base sur ce tutoriel sur des mesures répétées dans R . Voici l'exemple suivant pour les mesures répétées ANOVA:
aov(Recall ~ Valence + Error(Subject/Valence), data.ex3)
Ici, les sujets sont présentés avec des mots de valence variable (facteur à trois niveaux) et leur temps de rappel est mesuré. Chaque sujet est présenté avec des mots des trois niveaux de valence. Je ne vois rien imbriqué dans cette conception (il semble barré, selon la grande réponse ici ), et donc je penserais naïvement que Error(Subject)
ou (1 | Subject)
devrait être un terme aléatoire approprié dans ce cas. La Subject/Valence
"nidification" (?) Prête à confusion.
Notez que je comprends que Valence
c'est un facteur intra-sujet . Mais je pense que ce n'est pas un facteur "imbriqué" au sein des sujets (car tous les sujets connaissent les trois niveaux de Valence
).
Mise à jour. J'explore les questions sur CV concernant le codage des mesures répétées ANOVA en R.
Ici, ce qui suit est utilisé pour les mesures fixes intra-sujet / répétées A et aléatoires
subject
:summary(aov(Y ~ A + Error(subject/A), data = d)) anova(lme(Y ~ A, random = ~1|subject, data = d))
Ici pour deux effets fixes intra-sujet / mesures répétées A et B:
summary(aov(Y ~ A*B + Error(subject/(A*B)), data=d)) lmer(Y ~ A*B + (1|subject) + (1|A:subject) + (1|B:subject), data=d)
Voici trois effets intra-sujet A, B et C:
summary(aov(Y ~ A*B*C + Error(subject/(A*B*C)), data=d)) lmer(Y ~ A*B*C + (1|subject) + (0+A|subject) + (0+B|subject) + (0+C|subject) + (0+A:B|subject) + (0+A:C|subject) + (0+B:C|subject), data = d)
Mes questions:
- Pourquoi
Error(subject/A)
et nonError(subject)
? - Est-ce
(1|subject)
ou(1|subject)+(1|A:subject)
ou simplement(1|A:subject)
? - Est-ce
(1|subject) + (1|A:subject)
ou(1|subject) + (0+A|subject)
, et pourquoi pas simplement(A|subject)
?
À ce jour, j'ai vu des fils qui prétendent que certaines de ces choses sont équivalentes (par exemple, le premier: une affirmation selon laquelle ils sont les mêmes, mais une revendication opposée sur SO ; le troisième: une sorte de revendication selon laquelle ils sont les mêmes ). Sont-ils?
subject/condition
, cela est conceptuellement douteux car il semble suggérer que les conditions sont imbriquées chez les sujets, alors que c'est clairement le contraire, mais le modèle qui est réellement en forme est subject + subject:condition
, qui est un modèle parfaitement valide avec des effets de sujet aléatoires et des pentes aléatoires du sujet X.
lm
et des aov
formules standard ? Si je veux avoir une source faisant autorité sur ce que aov
fait exactement (est-ce un wrapper pour lm
?) Et comment les Error()
termes fonctionnent, où dois-je chercher?
aov
est un wrapper pour lm
dans le sens qui lm
est utilisé pour l'ajustement des moindres carrés, mais aov
fait un travail supplémentaire (notamment la traduction du Error
terme pour lm
). La source faisant autorité est le code source ou éventuellement la référence donnée dans help("aov")
: Chambers et al (1992). Mais je n'ai pas accès à cette référence, donc je regarderais le code source.