Mann-Whitney n'est pas sensible aux changements de variance à moyenne égale, mais il peut - comme vous le voyez avec la forme , détecter les différences qui conduisent à s'écarter de (par exemple où la moyenne et la variance augmentent ensemble). Il est clair que si vous aviez deux normales de moyenne égale, leurs différences sont symétriques par rapport à zéro. Par conséquent, , ce qui est la situation nulle.P ( X > Y ) 0,5 P ( X > Y ) = P ( X - Y > 0 ) = 1P( X> Y) = 0,5P( X> Y)0,5P( X> Y) = P( X- Oui> 0 ) = 12
Par exemple, si vous avez la distribution de étant exponentielle avec la moyenne tandis que a une distribution exponentielle avec la moyenne (un changement d'échelle), le Mann-Whitney est sensible à cela (en effet, en prenant des journaux des deux côtés, c'est juste un changement de lieu, et le Mann-Whitney n'est pas affecté par la transformation monotone).1 X kOui1Xk
-
Si vous êtes intéressé par des tests qui sont conceptuellement très similaires à ceux de Mann-Whitney et qui sont sensibles aux différences de répartition sous l'égalité des médianes, il existe plusieurs de ces tests.
Il y a le test Siegel-Tukey et le test Ansari-Bradley, par exemple, tous deux étroitement liés au test à deux échantillons de Mann-Whitney-Wilcoxon.
Ils sont tous deux basés sur l'idée de base du classement à partir des extrémités.
Si vous utilisez R, le test Ansari-Bradley est intégré ... ?ansari.test
Le Siegel-Tukey effectue en fait juste un test de Mann-Whitney-Wilcoxon sur des rangs calculés différemment à partir de l'échantillon; si vous classez les données vous-même, vous n'avez pas vraiment besoin d'une fonction distincte pour les valeurs de p. Néanmoins, vous pouvez en trouver, comme ici:
http://www.r-statistics.com/2010/02/siegel-tukey-a-non-parametric-test-for-equality-in-variability-r-code/
-
(par rapport au commentaire de ttnphns sous ma réponse d'origine)
Vous seriez en train de surinterpréter ma réponse pour la lire comme étant en désaccord avec @GregSnow dans un sens particulièrement substantiel. Il y a certainement une différence dans l'accent et dans une certaine mesure dans ce dont nous parlons, mais je serais très surpris s'il y avait beaucoup de désaccord réel derrière cela.
Citons Mann et Whitney: "Une statistique dépendant des rangs relatifs des et des est proposée pour tester l'hypothèse . " C'est sans équivoque; il soutient totalement la position de @ GregSnow.x y f = gUxyf=g
Maintenant, voyons comment la statistique est construite: " Soit compter le nombre de fois qu'un précède un .y x Uyx " Maintenant, si leur null est vrai, la probabilité de cet événement est ... mais il existe d'autres façons d'obtenir une probabilité de 0,5, et en ce sens, on pourrait penser que le test peut fonctionner dans d'autres circonstances. Dans la mesure où ils estiment une probabilité (redimensionnée) que > , cela corrobore ce que j'ai dit.1 YX12YX
Cependant, pour que les niveaux de signification soient garantis exactement corrects, vous auriez besoin de la distribution de pour correspondre à la distribution nulle. Cela est dérivé de l'hypothèse que toutes les permutations des étiquettes des groupes et aux observations combinées sous le zéro étaient également probables. C'est certainement le cas sous . Exactement comme l'a dit @GregSnow.X Y f = gUXYf=g
La question est de savoir dans quelle mesure cela est le cas (c'est-à-dire que la distribution de la statistique de test correspond à celle dérivée sous l'hypothèse que , ou approximativement), pour le plus généralement exprimé nul.f=g
Je crois que dans de nombreuses situations, c'est le cas; en particulier pour des situations incluant mais plus générales que celle que vous décrivez (deux populations normales avec la même variance moyenne mais extrêmement inégale peuvent être généralisées un peu sans modifier la distribution résultante en fonction des rangs), je pense que la distribution de la statistique de test se révèle avoir la même distribution sous laquelle il a été dérivé et devrait donc y être valide. J'ai fait quelques simulations qui semblent soutenir cela. Cependant, ce ne sera pas toujours un test très utile (il peut avoir une mauvaise puissance).
Je n'offre aucune preuve que ce soit le cas. J'ai appliqué un argument d'intuition / ondulé à la main et j'ai également fait des simulations de base qui suggèrent que c'est vrai - que le Mann-Whitney fonctionne (en ce qu'il a la `` bonne '' distribution sous le null) beaucoup plus largement que lorsque .f=g
Faites-en ce que vous voulez, mais je ne l'interprète pas comme un désaccord de fond avec @GregSnow
Référence - papier original de Mann & Whitney