Corrélation et agrégation intraclasse


8

Imagine ça:

  • Vous avez un échantillon de 1000 équipes de 10 membres chacune.
  • Vous avez mesuré le fonctionnement de l'équipe en demandant à chaque membre de l'équipe dans quelle mesure il pense que son équipe fonctionne à l'aide d'une échelle numérique fiable à plusieurs éléments.
  • Vous voulez décrire dans quelle mesure la mesure de l'efficacité de l'équipe est une propriété de la croyance idiosyncrasique du membre de l'équipe ou une propriété d'une croyance partagée au sujet de l'équipe.

Dans cette situation et dans des situations connexes (p. Ex. Agrégation à des organisations), de nombreux chercheurs signalent la corrélation intraclasse (p. Ex. Tableau 1 dans Campion et Medsker, 1993 ). Ainsi, mes questions sont:

  1. Quelles étiquettes descriptives attacheriez-vous aux différentes valeurs de la corrélation intra-classe? C'est-à-dire que l'objectif est de relier réellement les valeurs de la corrélation intra-classe à un langage qualitatif tel que: "Lorsque la corrélation intraclasse est supérieure à x, cela suggère que les attitudes sont modestement / modérément / fortement partagées entre les membres de l'équipe."
  2. Pensez-vous que la corrélation intraclasse est la statistique appropriée ou utiliseriez-vous une stratégie différente?

Pas pour commencer une sous-question, mais je n'ai jamais compris l'utilité de la corrélation intra-classe; il me semble que le scénario que vous décrivez peut être adéquatement saisi en parlant (1) de la variance des moyennes d'équipe et (2) de la variance moyenne intra-équipe.
Mike Lawrence

J'ai du mal à comprendre la mesure dépendante dans votre question. Comment mesure-t-on l'efficacité de l'équipe? Lorsque vous dites «la mesure de l'efficacité de l'équipe», vous semblez parler de votre mesure du «fonctionnement de l'équipe». Dans l'affirmative, la mesure dépendante n'est-elle pas nécessairement un critère contaminé?
russellpierce

@drknexus Dans les études d'équipe typiques, chaque membre de l'équipe est interrogé sur, par exemple, son niveau d'accord avec des déclarations telles que "mon équipe fonctionne bien", "les membres de l'équipe s'entendent bien", "mon équipe gère les conflits de manière constructive" .. La question est donc de savoir dans quelle mesure ces croyances sont partagées par les membres de l'équipe.
Jeromy Anglim

Réponses:


4

Je pense que (1) n'est pas une question statistique mais un sujet. Par exemple, dans l'exemple décrit, il appartiendrait à ceux qui étudient la psychologie de groupe de déterminer le langage approprié pour la force des CCI. Ceci est analogue à une corrélation de Pearson - ce qui constitue «fort» diffère selon que l'on travaille, par exemple, en sociologie ou en physique.

(2) est dans une certaine mesure également spécifique à un domaine - il dépend de ce que les chercheurs visent à mesurer et à décrire. Mais d'un point de vue statistique, ICC est une mesure raisonnable pour la relation au sein d'une équipe. Cependant, je suis d'accord avec Mike que lorsque vous dites que vous souhaitez

«décrire dans quelle mesure la mesure de l'efficacité de l'équipe est une propriété de la croyance idiosyncrasique du membre de l'équipe ou une propriété d'une croyance partagée au sujet de l'équipe»

alors il est probablement plus approprié d'utiliser des composants de variance dans leur forme brute que de les convertir en ICC.

Pour clarifier, pensez à l'ICC calculé dans un modèle mixte. Pour un modèle mixte à un niveau avec des interceptions aléatoires au niveau du groupe et des erreurs intra-groupe , décrit la quantité de variation entre les équipes et décrit la variation au sein des équipes. Ensuite, pour une seule équipe, nous obtenons une matrice de covariance de réponse de qui, lorsqu'elle est convertie en matrice de corrélation, est . Donc,biN(0,σb2)ϵijiidN(0,σ2)σb2σ2σ2I+σb211σ2σ2+σb2I+σb2σ2+σb211σb2σ2+σb2=ICC décrit le niveau de corrélation entre les réponses d'efficacité au sein d'une équipe, mais il semble que vous pourriez être plus intéressé par et , ou peut-être .σ2σb2σ2σb2


1

1) Avec les corrélations, vous ne pouvez jamais vraiment donner de seuils raisonnables, mais les règles générales de la corrélation normale s'appliquent, je dirais.

2) Concernant la pertinence de l'ICC: selon les données, l'ICC est équivalent à un test F (voir par exemple Commenges & Jacqmin, 1994 et Kistner & Muller, 2004 ). Donc, en substance, le cadre de modèle mixte peut vous en dire au moins autant sur votre hypothèse, et permet de tester simultanément plus d'hypothèses que l'ICC.

Le Cronbach est également directement lié à la CPI, et une autre mesure qui est (était?) Souvent rapportée, bien que dans le contexte d'un accord entre des éléments au sein d'un groupe. Cette approche provient de questionnaires psychologiques, où un seuil de 0,7 est assez souvent utilisé pour déterminer si les questions se regroupent réellement dans les facteurs étudiés.α


1
L'alpha de Cronbach est essentiellement une mesure de cohérence interne, qu'il s'agit de corrélations inter-items. Il souffre cependant de nombreux pièges, en particulier du fait qu'il augmente avec l'augmentation du nombre d'articles (il peut même être négatif, bien qu'il s'agisse d'un rapport de variances!). Je pense que nous allons nous concentrer ici sur la description des variations / homogénéité au niveau des individus au sein des équipes, donc penser à la modélisation à effets mixtes ou aux modèles hiérarchiques est un bon point de départ.
chl

1

Paul Bliese a un article sur la corrélation intraclasse dans la recherche des équipes. Il écrit que

Dans [sa vaste] expérience des données des [équipes] de l'armée américaine ... il n'a jamais rencontré de valeurs ICC (1) supérieures à .30 [, et qu'il] voit [généralement] des valeurs comprises entre .05 et .20.

Il continue en suggérant qu'il serait

surpris de trouver des valeurs ICC (1) supérieures à 0,30 dans la plupart des recherches sur le terrain appliquées.

J'ai lu des articles qui citent cet article, sans doute de manière inappropriée, suggérant qu'une valeur ICC (1) supérieure à 0,05 est nécessaire pour justifier l'agrégation.

Références

  • Bliese, PD (2000). Accord intra-groupe, non-indépendance et fiabilité: implications pour l'agrégation et l'analyse des données. PDF
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.