Nn
Pour clarifier mon propos sur le pouvoir, voici une simulation très simple écrite pour R:
set.seed(9) # this makes the simulation exactly reproducible
power5050 = vector(length=10000) # these will store the p-values from each
power7525 = vector(length=10000) # simulated test to keep track of how many
power9010 = vector(length=10000) # are 'significant'
for(i in 1:10000){ # I run the following procedure 10k times
n1a = rnorm(50, mean=0, sd=1) # I'm drawing 2 samples of size 50 from 2 normal
n2a = rnorm(50, mean=.5, sd=1) # distributions w/ dif means, but equal SDs
n1b = rnorm(75, mean=0, sd=1) # this version has group sizes of 75 & 25
n2b = rnorm(25, mean=.5, sd=1)
n1c = rnorm(90, mean=0, sd=1) # this one has 90 & 10
n2c = rnorm(10, mean=.5, sd=1)
power5050[i] = t.test(n1a, n2a, var.equal=T)$p.value # here t-tests are run &
power7525[i] = t.test(n1b, n2b, var.equal=T)$p.value # the p-values are stored
power9010[i] = t.test(n1c, n2c, var.equal=T)$p.value # for each version
}
mean(power5050<.05) # this code counts how many of the p-values for
[1] 0.7019 # each of the versions are less than .05 &
mean(power7525<.05) # divides the number by 10k to compute the %
[1] 0.5648 # of times the results were 'significant'. That
mean(power9010<.05) # gives an estimate of the power
[1] 0.3261
N=100n1=50n2=50n1=75n2=25n1=90n2=10. Notons en outre que le processus normalisé de différence moyenne / génération de données était le même dans tous les cas. Cependant, alors que le test était «significatif» 70% du temps pour l'échantillon 50-50, la puissance était de 56% avec 75-25 et seulement 33% lorsque la taille du groupe était 90-10.
Je pense à cela par analogie. Si vous voulez connaître l'aire d'un rectangle et si le périmètre est fixe, alors l'aire sera maximisée si la longueur et la largeur sont égales (c'est-à-dire si le rectangle est un carré ). D'autre part, lorsque la longueur et la largeur divergent (à mesure que le rectangle s'allonge), la zone se contracte.