La valeur de p pour le test t est calculée en supposant que toutes les observations sont indépendantes. Le calcul des probabilités (telles que la valeur de p) est beaucoup plus difficile lorsque vous traitez avec des variables dépendantes, et il n'est pas toujours facile de voir mathématiquement où les choses tournent mal avec le test en présence de dépendance. On peut cependant facilement illustrer le problème avec une simulation.
Prenons par exemple le cas où il y a 5 salles de classe dans chacune des deux écoles, avec 10 élèves dans chaque classe. Dans l'hypothèse de normalité, la valeur de p du test devrait être uniformément répartie sur l'intervalle s'il n'y a pas de différence dans les scores moyens aux tests entre toutes les classes. Autrement dit, si nous avons effectué de nombreuses études comme celle-ci et tracé un histogramme de toutes les valeurs de p, il devrait ressembler à la distribution uniforme en forme de boîte .( 0 , 1 )
Cependant, s'il existe une corrélation en classe entre les résultats des élèves, les valeurs de p ne se comportent plus comme elles le devraient. Une corrélation positive (comme on pourrait s'y attendre ici) conduira souvent à des valeurs de p qui sont trop petites, de sorte que l'hypothèse nulle sera rejetée trop souvent lorsqu'elle est en fait vraie. Une simulation R illustrant cela peut être trouvée ci-dessous. 1000 études de deux écoles sont simulées pour différentes corrélations intra-classe. Les valeurs de p du test t correspondant sont indiquées dans les histogrammes de la figure. Ils sont uniformément distribués lorsqu'il n'y a pas de corrélation, mais pas autrement. Dans la simulation, on suppose qu'il n'y a pas de différence moyenne entre les classes et que toutes les classes ont la même corrélation intra-classe.
La conséquence de ce phénomène est que le taux d'erreur de type I du test t sera très éloigné s'il existe des corrélations intra-classe. Par exemple, un test t au niveau de 5% est en fait approximativement au niveau de 25% si la corrélation intra-classe est de 0,1! En d'autres termes, le risque de rejeter faussement l'hypothèse nulle augmente considérablement lorsque les observations sont dépendantes .
Notez que les axes diffèrent quelque peu entre les histogrammes.
Code R:
library(MASS)
B1<-1000
par(mfrow=c(3,2))
for(correlation in c(0,0.1,0.25,0.5,0.75,0.95))
{
# Create correlation/covariance matrix and mean vector
Sigma<-matrix(correlation,10,10)
diag(Sigma)<-1
mu<-rep(5,10)
# Simulate B1 studies of two schools A and B
p.value<-rep(NA,B1)
for(i in 1:B1)
{
# Generate observations of 50 students from school A
A<-as.vector(mvrnorm(n=5,mu=mu,Sigma=Sigma))
# Generate observations of 50 students from school B
B<-as.vector(mvrnorm(n=5,mu=mu,Sigma=Sigma))
p.value[i]<-t.test(A,B)$p.value
}
# Plot histogram
hist(p.value,main=paste("Within-classroom correlation:",correlation),xlab="p-value",cex.main=2,cex.lab=2,cex.axis=2)
}