Wikipedia suggère qu'une façon d'examiner la fiabilité inter-évaluateurs consiste à utiliser un modèle à effets aléatoires pour calculer la corrélation intraclasse . L'exemple de la corrélation intraclasse parle de regarder
à partir d'un modèle
"où Y ij est la j ème observation dans le i ème groupe, μ est une moyenne globale non observée, α i est un effet aléatoire non observé partagé par toutes les valeurs du groupe i, et ε ij est un terme de bruit non observé."
C'est un modèle attrayant, en particulier parce que dans mes données, aucun évaluateur n'a évalué toutes choses (bien que la plupart aient noté 20+), et les choses sont évaluées un nombre variable de fois (généralement 3-4).
Question # 0: Le «groupe i» dans cet exemple («groupe i») est-il un groupe de choses évaluées?
Question # 1: Si je recherche une fiabilité inter-évaluateurs, n'ai-je pas besoin d'un modèle d'effets aléatoires avec deux termes, un pour le évaluateur et un pour la chose évaluée? Après tout, les deux ont des variations possibles.
Question # 2: Comment exprimer au mieux ce modèle en R?
Il semble que cette question ait une belle proposition:
lmer(measurement ~ 1 + (1 | subject) + (1 | site), mydata)
J'ai regardé quelques questions , et la syntaxe du paramètre "aléatoire" pour lme est opaque pour moi. J'ai lu la page d'aide de lme , mais la description de "random" est incompréhensible pour moi sans exemples.
Cette question est quelque peu similaire à une longue liste de questions , celle-ci étant la plus proche. Cependant, la plupart n'abordent pas R en détail.