Vous pouvez généralement continuer à améliorer votre estimation de tout paramètre que vous pourriez tester avec plus de données. Arrêter la collecte de données une fois qu'un test atteint un certain degré de signification semi-arbitraire est un bon moyen de faire de mauvaises inférences. Le fait que les analystes puissent mal comprendre un résultat significatif comme signe que le travail est fait est l'une des nombreuses conséquences imprévues du cadre de Neyman-Pearson, selon lequel les gens interprètent les valeurs de p comme une cause de rejet ou d'échec de rejet d'un null sans réserve en fonction de de quel côté du seuil critique ils tombent.
Sans considérer les alternatives bayésiennes au paradigme fréquentiste (j'espère que quelqu'un d'autre le fera), les intervalles de confiance continuent d'être plus informatifs bien au-delà du point où une hypothèse nulle de base peut être rejetée. En supposant que la collecte de plus de données rendrait votre test de signification de base encore plus significatif (et ne révélerait pas que votre découverte de signification antérieure était un faux positif), vous pourriez trouver cela inutile parce que vous rejetteriez le null de toute façon. Cependant, dans ce scénario, votre intervalle de confiance autour du paramètre en question continuerait de diminuer, améliorant le degré de confiance avec lequel vous pouvez décrire précisément votre population d'intérêt.
Voici un exemple très simple en r - testant l'hypothèse nulle que pour une variable simulée:μ = 0
One Sample t-test
data: rnorm(99)
t = -2.057, df = 98, p-value = 0.04234
alternative hypothesis: true mean is not equal to 0
95 percent confidence interval:
-0.377762241 -0.006780574
sample estimates:
mean of x
-0.1922714
t.test(rnorm(99))
α = 0,05rnorm
set.seed(8);t.test(rnorm(99,1))
μ = [ .69 , 1.12 ]
μ = 0,8mu=.8
set.seed(8);t.test(rnorm(999,1),mu=.8)
μ = 0μ = 0,8μ = [ .90 , 1.02 ]μ = 0,89
H0: μ = .9set.seed(9);t.test(rnorm(999,1),mu=.9)
Tester progressivement des hypothèses nulles plus strictes, ou mieux encore, se concentrer uniquement sur la réduction de vos intervalles de confiance n'est qu'une façon de procéder. Bien sûr, la plupart des études qui rejettent les hypothèses nulles jettent les bases d'autres études qui s'appuient sur l'hypothèse alternative. Par exemple, si je testais une autre hypothèse selon laquelle une corrélation est supérieure à zéro, je pourrais tester des médiateurs ou des modérateurs dans une étude de suivi suivante ... et pendant que j'y suis, je voudrais certainement m'assurer Je pourrais reproduire le résultat d'origine.
Une autre approche à considérer est le test d' équivalence . Si vous souhaitez conclure qu'un paramètre se situe dans une certaine plage de valeurs possibles, et pas seulement différente d'une seule valeur, vous pouvez spécifier cette plage de valeurs dans laquelle vous souhaitez que le paramètre se situe conformément à votre hypothèse alternative conventionnelle et le tester contre un ensemble différent d'hypothèses nulles qui représentent ensemble la possibilité que le paramètre se trouve en dehors de cette plage. Cette dernière possibilité pourrait être plus similaire à ce que vous aviez en tête lorsque vous avez écrit:
Nous avons "quelques preuves" pour que l'alternative soit vraie, mais nous ne pouvons pas tirer cette conclusion. Si je veux vraiment tirer cette conclusion de manière concluante ...
set.seed(8)
rnorm(99)
rnorm(99,1)-1
μ = 0,8- .2 ≤ μ ≤ .2
require(equivalence);set.seed(8);tost(rnorm(99),epsilon=.2)
tost
μ = [ - .27 , .09 ]rnorm(999)
μ = [ - .09 , .01 ]
Je pense toujours que l'intervalle de confiance est plus intéressant que le résultat du test d'équivalence. Elle représente ce que les données suggèrent que la moyenne de la population est plus spécifiquement que l'hypothèse alternative, et suggère que je peux être raisonnablement convaincu qu'elle se situe dans un intervalle encore plus petit que celui que j'ai spécifié dans l'hypothèse alternative. Pour démontrer, je vais abuser de mes pouvoirs de simulation irréalistes une fois de plus et "répliquer" en utilisant set.seed(7);tost(rnorm(999),epsilon=.09345092)
: bien sûr, p = .002.