@ La réponse de Tom est excellente, mais j'aimerais proposer une version plus heuristique et qui introduit un concept supplémentaire.
Régression logistique
Imaginez que nous ayons un certain nombre de questions binaires. Si nous sommes intéressés par la probabilité de répondre oui à l'une des questions et si nous sommes intéressés par l'effet de certaines variables indépendantes sur cette probabilité, nous utilisons la régression logistique:
P(yje= 1 ) =11 + e x p ( Xβ)= l o gjet-1 ( Xβ)
où i indexe les questions (c'est-à-dire les items), X est un vecteur des caractéristiques des répondants, et β est l'effet de chacune de ces caractéristiques en termes de log cotes.
IRT
Maintenant, notez que j'ai dit que nous avions un certain nombre de questions binaires. Ces questions peuvent toutes concerner une sorte de trait latent, par exemple la capacité verbale, le niveau de dépression, le niveau d'extraversion. Souvent, nous nous intéressons au niveau du trait latent lui-même.
Par exemple, dans l'examen du dossier d'études supérieures, nous souhaitons caractériser la capacité verbale et mathématique de divers candidats. Nous voulons une bonne mesure de leur score. Nous pourrions évidemment compter le nombre de questions que quelqu'un a correctes, mais cela traite toutes les questions comme valant le même montant - cela ne tient pas explicitement compte du fait que les questions peuvent varier en difficulté. La solution est la théorie de la réponse aux items. Encore une fois, nous ne sommes (pour l'instant) pas intéressés par X ouβ, mais nous sommes simplement intéressés par la capacité verbale de la personne, que nous appellerons θ. Nous utilisons le modèle de réponses de chaque personne à toutes les questions pour estimerθ:
P(yje= 1 ) = l o gjet-1 [uneje(θj-bje) ]
où unejeest la discrimination de l'élément i etbje c'est sa difficulté.
C'est donc une distinction évidente entre la régression logistique régulière et l'IRT. Dans la première, nous nous intéressons aux effets de variables indépendantes sur une variable dépendante binaire. Dans ce dernier, nous utilisons un tas de variables binaires (ou catégorielles) pour prédire un trait latent. Le message original disait queθest notre variable indépendante. Je serais respectueusement en désaccord, je pense que c'est plus comme ceci est la variable dépendante dans IRT.
J'ai utilisé des articles binaires et une régression logistique pour plus de simplicité, mais l'approche se généralise aux articles commandés et à la régression logistique ordonnée.
IRT explicatif
Et si vous étiez intéressé par les choses qui prédisent le trait latent, à savoir les X etβest mentionné précédemment?
Comme mentionné précédemment, un modèle pour estimer le caractère latent consiste simplement à compter le nombre de réponses correctes ou à additionner toutes les valeurs de vos éléments Likert (c'est-à-dire catégoriques). Cela a ses défauts; vous supposez que chaque élément (ou chaque niveau de chaque élément) vaut la même quantité de trait latent. Cette approche est assez courante dans de nombreux domaines.
Vous pouvez peut-être voir où je veux en venir: vous pouvez utiliser l'IRT pour prédire le niveau du trait latent, puis effectuer une régression linéaire régulière. Cela ignorerait l'incertitude dans le trait latent de chaque personne, cependant.
Une approche plus fondée sur des principes consisterait à utiliser l'IRT explicatif: vous estimez simultanément θen utilisant un modèle IRT et vous estimez l'effet de vos X surθcomme si vous utilisiez une régression linéaire. Vous pouvez même étendre cette approche pour inclure des effets aléatoires afin de représenter, par exemple, le fait que les élèves sont imbriqués dans les écoles.
Plus de lecture disponible sur l'excellente introduction de Phil Chalmers à son mirt
package. Si vous comprenez les écrous et boulons de l'IRT, j'irais dans la section IRT Mixed Effects de ces diapositives . Stata est également capable d'ajuster des modèles IRT explicatifs (même si je pense qu'il ne peut pas s'adapter à des modèles IRT explicatifs à effets aléatoires comme je l'ai décrit ci-dessus).