Il y a quelques années, j'aurais entièrement souscrit à la réponse de @Michael Chernick.
Cependant, j'ai réalisé récemment que certaines implémentations du test t sont extrêmement robustes à l'inégalité des variances. En particulier, dans R, la fonction t.test
a un paramètre par défaut var.equal=FALSE
, ce qui signifie qu'elle ne repose pas simplement sur une estimation groupée de la variance. Au lieu de cela, il utilise les degrés de liberté approximatifs de Welch-Satterthwaite , qui compense les variances inégales.
Voyons un exemple.
set.seed(123)
x <- rnorm(100)
y <- rnorm(100, sd=0.00001)
# x and y have 0 mean, but very different variance.
t.test(x,y)
Welch Two Sample t-test
data: x and y
t = 0.9904, df = 99, p-value = 0.3244
alternative hypothesis: true difference in means is not equal to 0
95 percent confidence interval:
-0.09071549 0.27152946
sample estimates:
mean of x mean of y
9.040591e-02 -1.075468e-06
Vous pouvez voir que R prétend effectuer le test t de Welch et non le test t de Student . Ici, le degré de liberté est supposé être 99, même si chaque échantillon a une taille 100, donc ici la fonction teste essentiellement le premier échantillon par rapport à la valeur fixe 0.
Vous pouvez vérifier vous-même que cette implémentation donne des valeurs de p correctes ( c'est-à-dire uniformes) pour deux échantillons avec des variances très différentes.
Maintenant, c'était pour un test t à deux échantillons. Ma propre expérience avec l'ANOVA est qu'elle est beaucoup plus sensible à l'inégalité des variances. Dans ce cas, je suis entièrement d'accord avec @Michael Chernick.