Si un test paramétrique ne rejette pas la valeur nulle, son alternative non paramétrique fait-elle de même?


12

Si les tests non paramétriques sont supposés avoir moins de puissance que leurs alternatives paramétriques, cela signifie-t-il que si un test paramétrique ne rejette pas null, alors son alternative non paramétrique ne rejette pas aussi null? Comment cela peut-il changer si les hypothèses du test paramétrique ne sont pas remplies et que le test est utilisé de toute façon?


4
a) si le test A a une puissance inférieure à celle du test B dans certaines circonstances présumées, cela n'implique pas que les cas que A rejettera sont un sous-ensemble de ceux de B (en fait, ce n'est pas possible à un niveau de signification fixe); ils rejettent des parties différentes (mais peut-être fortement chevauchantes) de l'espace d'échantillonnage - il y a toujours des cas où chacun rejettera que l'autre ne le fera pas. (b) Si les hypothèses du test paramétrique ne sont pas remplies (sont-elles réellement remplies?), alors les tests paramétriques peuvent avoir une puissance relativement faible (par exemple, test t vs Mann-Whitney sous des queues lourdes)
Glen_b -Reinstate Monica

Réponses:


9

Si un test paramétrique ne parvient pas à rejeter l'hypothèse nulle, son équivalent non paramétrique peut définitivement rejeter l'hypothèse nulle. Comme l'a dit @John, cela se produit généralement lorsque les hypothèses qui justifieraient l'utilisation du test paramétrique sont violées. Par exemple, si nous comparons le test t à deux échantillons avec le test de somme de rang de Wilcoxon, nous pouvons obtenir que cette situation se produise si nous incluons les valeurs aberrantes dans nos données (avec les valeurs aberrantes, nous ne devrions pas utiliser le test à deux échantillons).

#Test Data
x = c(-100,-100,rnorm(1000,0.5,1),100,100)
y = rnorm(1000,0.6,1)

#Two-Sample t-Test
t.test(x,y,var.equal=TRUE)

#Wilcoxon Rank Sum Test
wilcox.test(x,y)

Les résultats de l'exécution du test:

> t.test(x,y,var.equal=TRUE)

    Two Sample t-test

data:  x and y 
t = -1.0178, df = 2002, p-value = 0.3089
alternative hypothesis: true difference in means is not equal to 0 
95 percent confidence interval:
 -0.6093287  0.1929563 
sample estimates:
mean of x mean of y 
0.4295556 0.6377417 

> 
> wilcox.test(x,y)

    Wilcoxon rank sum test with continuity correction

data:  x and y 
W = 443175, p-value = 5.578e-06
alternative hypothesis: true location shift is not equal to 0 

9

Non.

Alors que les tests paramétriques peuvent être plus puissants, ce n'est pas toujours le cas. Lorsque ce n'est pas le cas, c'est généralement dans des situations où vous ne devriez pas exécuter les tests paramétriques.

Mais, même si vous collectez des échantillons de taille décente à partir de distributions normales avec une variance égale où le test paramétrique a une puissance plus élevée, cela ne garantit pas que pour une expérience particulière, un test paramétrique non significatif signifie un test non paramétrique non significatif. Voici une simulation qui utilise simplement un échantillonnage aléatoire à partir de distributions normales et constate qu'environ 1,8% du temps lorsque p> 0,05 pour un test t que p <0,05 pour un test de Wilcoxon.

nsim <- 10000
n <- 50
cohensD <- 0.2
Y <- replicate(nsim, {
    y1 <- rnorm(n, 0, 1); y2 <- rnorm(n, cohensD, 1)
    tt <- t.test(y1, y2, var.equal = TRUE)
    wt <- wilcox.test(y1, y2)
    c(tt$p.value, wt$p.value)})
sum(Y[1,] > 0.05 & Y[2,] < 0.05) / nsim

Vous pourriez noter que, dans cette simulation, la puissance du test paramétrique est supérieure à celle du test non paramétrique (bien qu'ils soient similaires).

sum(Y[1,] < 0.05) / nsim #t-test power
sum(Y[2,] < 0.05) / nsim #wilcox.test power

Mais, comme indiqué ci-dessus, cela ne signifie pas que dans tous les cas où le test paramétrique ne parvient pas à trouver un effet que le test non paramétrique échoue également.

Vous pouvez jouer avec cette simulation. Faites n assez grand, disons 1000, et réduisez la taille de l'effet, disons 0,02 (vous avez besoin d'une faible puissance pour avoir beaucoup d'échantillons là où le test échoue). Vous pouvez être à peu près garanti avec un n de 1000 qu'aucun des échantillons ne serait rejeté pour non-normalité (par inspection, pas un test stupide) ou aurait des valeurs aberrantes suspectes. Pourtant, certains tests paramétriques s'avèrent non significatifs tandis que les tests non paramétriques sont significatifs.

Vous voudrez peut-être aussi regarder Hunter & May (1993).

Hunter, MA et May, RB (1993). Quelques mythes concernant les tests paramétriques et non paramétriques. Psychologie canadienne, 34 (4), 384-389.

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.