Comme indiqué précédemment dans ce fil et dans d'autres fils: (1) Le test de Durbin-Watson n'est pas concluant. Seules les limites suggérées initialement par Durbin et Watson étaient dues au fait que la distribution précise dépend de la matrice de régresseur observée. Cependant, cela est assez facile à résoudre dans les logiciels statistiques / économétriques. (2) Il existe des généralisations du test de Durbin-Watson à des retards plus élevés. Par conséquent, ni l'inconvénient ni la limitation des retards n'est un argument contre le test de Durbin-Watson.
Par rapport au test de Wald de la variable dépendante retardée, le test de Durbin-Watson peut avoir une puissance plus élevée dans certains modèles. Plus précisément, si le modèle contient des tendances déterministes ou des modèles saisonniers, il peut être préférable de tester l'autocorrélation dans les résidus (comme le fait le test de Durbin-Watson) par rapport à l'inclusion de la réponse décalée (qui n'est pas encore ajustée pour les modèles déterministes) . J'inclus une petite simulation R ci-dessous.
Un inconvénient important du test de Durbin-Watson est qu'il ne doit pas être appliqué aux modèles qui contiennent déjà des effets autorégressifs. Ainsi, vous ne pouvez pas tester l'autocorrélation résiduelle restante après l'avoir partiellement capturée dans un modèle autorégressif. Dans ce scénario, la puissance du test de Durbin-Watson peut s'effondrer complètement alors que pour le test de Breusch-Godfrey, par exemple, ce n'est pas le cas. Notre livre "Econométrie Appliquée avec R" a une petite étude de simulation qui le montre dans le chapitre "Programmation de votre propre analyse", voir http://eeecon.uibk.ac.at/~zeileis/teaching/AER/ .
Pour un ensemble de données avec tendance plus erreurs autocorrélées, la puissance du test de Durbin-Watson est cependant plus élevée que pour le test de Breusch-Godfrey, et également plus élevée que pour le test de Wald de l'effet autorégressif. J'illustre cela pour un petit scénario simple dans R. Je tire 50 observations d'un tel modèle et calcule des valeurs de p pour les trois tests:
pvals <- function()
{
## data with trend and autocorrelated error term
d <- data.frame(
x = 1:50,
err = filter(rnorm(50), 0.25, method = "recursive")
)
## response and corresponding lags
d$y <- 1 + 1 * d$x + d$err
d$ylag <- c(NA, d$y[-50])
## OLS regressions with/without lags
m <- lm(y ~ x, data = d)
mlag <- lm(y ~ x + ylag, data = d)
## p-value from Durbin-Watson and Breusch-Godfrey tests
## and the Wald test of the lag coefficient
c(
"DW" = dwtest(m)$p.value,
"BG" = bgtest(m)$p.value,
"Coef-Wald" = coeftest(mlag)[3, 4]
)
}
Ensuite, nous pouvons simuler 1000 valeurs de p pour les trois modèles:
set.seed(1)
p <- t(replicate(1000, pvals()))
Le test de Durbin-Watson conduit aux valeurs p moyennes les plus faibles
colMeans(p)
## DW BG Coef-Wald
## 0.1220556 0.2812628 0.2892220
et la puissance la plus élevée au niveau de signification de 5%:
colMeans(p < 0.05)
## DW BG Coef-Wald
## 0.493 0.256 0.248