Selon Fritz, Morris et Richler (2011; voir ci-dessous), peut être calculé comme une taille d'effet pour le test U de Mann-Whitney en utilisant la formule . moi, comme je signale aussi à d' autres occasions. Je voudrais signaler l'intervalle de confiance pour en plus de la mesure de la taille de l'effet.r = z rr
Voici mes questions :
- Puis-je calculer les intervalles de confiance pour r comme pour r de Pearson, bien qu'il soit utilisé comme mesure de taille d'effet pour un test non paramétrique?
- Quels intervalles de confiance doivent être déclarés pour les tests unilatéraux et bilatéraux?
Modifier concernant la deuxième question: "Quels intervalles de confiance doivent être déclarés pour les tests unilatéraux vs bilatéraux?"
J'ai trouvé plus d'informations que IMHO peut répondre à cette question. "Alors que les limites de confiance bilatérales forment un intervalle de confiance, leurs homologues unilatéraux sont appelés limites de confiance inférieures ou supérieures." ( http://en.wikipedia.org/wiki/Confidence_interval ). D'après ces informations, je conclus que ce n'est pas la question principale de savoir si le test de signification (par exemple, le test ) était unilatéral ou bilatéral, mais quelles informations on est intéressé par rapport à l'IC pour la taille de l'effet. Ma conclusion (veuillez me corriger si vous n'êtes pas d'accord):
- IC bilatéral intéressé par les limites supérieure et inférieure (en conséquence, il est possible qu'un IC bilatéral entraîne 0 bien que le test de signification unilatéral soit p <0,05, en particulier dans le cas où la valeur était proche de .05.)
- "CI" unilatéral uniquement intéressé par la limite supérieure ou inférieure (en raison du raisonnement théorique); cependant, ce n'est pas nécessairement la principale question d'intérêt après avoir testé une hypothèse dirigée. Un CI bilatéral est parfaitement approprié si l'accent est mis sur la plage possible d'une taille d'effet. Droite?
Voir ci-dessous le passage du texte de Fritz, Morris et Richler (2011) sur l'estimation de la taille des effets pour le test de Mann-Whitney de l'article auquel je fais référence ci-dessus.
"La plupart des estimations de la taille d'effet que nous avons décrites ici supposent que les données ont une distribution normale. Cependant, certaines données ne répondent pas aux exigences des tests paramétriques, par exemple, des données sur une échelle ordinale mais pas d'intervalle. Pour ces données, les chercheurs se tournent généralement vers des tests statistiques non paramétriques, tels que les tests de Mann – Whitney et de Wilcoxon. L'importance de ces tests est généralement évaluée par l'approximation des distributions des statistiques de test à la distribution lorsque les tailles d'échantillon ne sont pas trop petites et les packages, tels que SPSS, qui exécutent ces tests indiquent la valeur z appropriée en plus des valeurs pour U ou T ; zpeut également être calculé à la main (par exemple, Siegel et Castellan, 1988). La valeur peut être utilisée pour calculer une taille d'effet, comme le r proposé par Cohen (1988); Les directives de Cohen pour r sont qu'un effet important est 0,5, un effet moyen est 0,3 et un petit effet est 0,1 (Coolican, 2009, p. 395). Il est facile de calculer r , r 2 ou η 2 à partir de ces valeurs z car r = z et r2
Ces estimations de la taille de l'effet restent indépendantes de la taille de l'échantillon malgré la présence de N dans les formules. En effet, z est sensible à la taille de l'échantillon; la division par une fonction de N supprime l'effet de la taille de l'échantillon de l'estimation de la taille de l'effet résultant. "(p. 12)