Plutôt que de s'appuyer sur un test de normalité des résidus, essayez d'évaluer la normalité avec un jugement rationnel. Les tests de normalité ne vous indiquent pas que vos données sont normales, mais seulement qu'elles ne le sont pas. Mais étant donné que les données sont un échantillon, vous pouvez être certain qu'elles ne sont pas réellement normales sans test. L'exigence est à peu près normale. Le test ne peut pas vous le dire. Les tests deviennent également très sensibles à des N plus grands ou plus sérieusement, varient en sensibilité avec N. Votre N est dans cette plage où la sensibilité commence à devenir élevée. Si vous exécutez la simulation suivante dans R un certain nombre de fois et regardez les graphiques, vous verrez que le test de normalité dit "pas normal" sur un bon nombre de distributions normales.
# set the plot area to show two plots side by side (make the window wide)
par(mfrow = c(1, 2))
n <- 158 # use the N we're concerned about
# Run this a few times to get an idea of what data from a
# normal distribution should look like.
# especially note how variable the histograms look
y <- rnorm(n) # n numbers from normal distribution
# view the distribution
hist(y)
qqnorm(y);qqline(y)
# run this section several times to get an idea what data from a normal
# distribution that fails the normality test looks like
# the following code block generates random normal distributions until one
# fails a normality test
p <- 1 # set p to a dummy value to start with
while(p >= 0.05) {
y <- rnorm(n)
p <- shapiro.test(y)$p.value }
# view the distribution that failed
hist(y)
qqnorm(y);qqline(y)
Espérons que, après avoir parcouru les simulations, vous pouvez voir qu'un test de normalité peut facilement rejeter des données d'aspect assez normal et que les données d'une distribution normale peuvent sembler assez loin de la normale. Si vous voulez voir une valeur extrême de cet essai n <- 1000
. Les distributions sembleront toutes normales mais échoueront toujours au test à peu près au même rythme que les valeurs N inférieures. Et inversement, avec une faible distribution N qui réussit le test peut sembler très loin de la normale.
Le tracé résiduel standard dans SPSS n'est pas très utile pour évaluer la normalité. Vous pouvez voir les valeurs aberrantes, la gamme, la qualité de l'ajustement et peut-être même l'effet de levier. Mais la normalité est difficile à en tirer. Essayez la simulation suivante en comparant les histogrammes, les tracés normaux quantile-quantile et les tracés résiduels.
par(mfrow = c(1, 3)) # making 3 graphs in a row now
y <- rnorm(n)
hist(y)
qqnorm(y); qqline(y)
plot(y); abline(h = 0)
Il est extrêmement difficile de distinguer la normalité, ou presque, de la dernière intrigue et donc pas terriblement diagnostique de la normalité.
En résumé, il est généralement recommandé de ne pas s'appuyer sur des tests de normalité mais plutôt sur des tracés diagnostiques des résidus. Sans ces graphiques ou les valeurs réelles de votre question, il est très difficile pour quiconque de vous donner des conseils solides sur les besoins de vos données en termes d'analyse ou de transformation. Pour obtenir la meilleure aide, fournissez les données brutes.