Pourquoi utiliser Durbin-Watson au lieu de tester l'autocorrélation?


10

Le test de Durbin-Watson teste l'autocorrélation des résidus au décalage 1. Mais il en va de même pour le test de l'autocorrélation au décalage 1 directement. De plus, vous pouvez tester l'autocorrélation à un décalage de 2,3,4 et il existe de bons tests de portemanteau pour l'autocorrélation à plusieurs retards, et obtenir de beaux graphiques facilement interprétables [par exemple la fonction acf () dans R]. Durbin-Watson n'est pas intuitif à comprendre et produit souvent des résultats peu concluants. Alors pourquoi l'utiliser?

Cela a été inspiré par cette question sur le caractère non concluant de certains tests de Durbin-Watson, mais en est clairement distinct.


1
Vous pouvez réellement faire Durbin-Watson pour d'autres retards. Recherchez les statistiques généralisées de Durbin-Watson.
Brandon Sherman

Réponses:


8

Comme indiqué précédemment dans ce fil et dans d'autres fils: (1) Le test de Durbin-Watson n'est pas concluant. Seules les limites suggérées initialement par Durbin et Watson étaient dues au fait que la distribution précise dépend de la matrice de régresseur observée. Cependant, cela est assez facile à résoudre dans les logiciels statistiques / économétriques. (2) Il existe des généralisations du test de Durbin-Watson à des retards plus élevés. Par conséquent, ni l'inconvénient ni la limitation des retards n'est un argument contre le test de Durbin-Watson.

Par rapport au test de Wald de la variable dépendante retardée, le test de Durbin-Watson peut avoir une puissance plus élevée dans certains modèles. Plus précisément, si le modèle contient des tendances déterministes ou des modèles saisonniers, il peut être préférable de tester l'autocorrélation dans les résidus (comme le fait le test de Durbin-Watson) par rapport à l'inclusion de la réponse décalée (qui n'est pas encore ajustée pour les modèles déterministes) . J'inclus une petite simulation R ci-dessous.

Un inconvénient important du test de Durbin-Watson est qu'il ne doit pas être appliqué aux modèles qui contiennent déjà des effets autorégressifs. Ainsi, vous ne pouvez pas tester l'autocorrélation résiduelle restante après l'avoir partiellement capturée dans un modèle autorégressif. Dans ce scénario, la puissance du test de Durbin-Watson peut s'effondrer complètement alors que pour le test de Breusch-Godfrey, par exemple, ce n'est pas le cas. Notre livre "Econométrie Appliquée avec R" a une petite étude de simulation qui le montre dans le chapitre "Programmation de votre propre analyse", voir http://eeecon.uibk.ac.at/~zeileis/teaching/AER/ .

Pour un ensemble de données avec tendance plus erreurs autocorrélées, la puissance du test de Durbin-Watson est cependant plus élevée que pour le test de Breusch-Godfrey, et également plus élevée que pour le test de Wald de l'effet autorégressif. J'illustre cela pour un petit scénario simple dans R. Je tire 50 observations d'un tel modèle et calcule des valeurs de p pour les trois tests:

pvals <- function()
{
  ## data with trend and autocorrelated error term
  d <- data.frame(
    x = 1:50,
    err = filter(rnorm(50), 0.25, method = "recursive")
  )

  ## response and corresponding lags
  d$y <- 1 + 1 * d$x + d$err
      d$ylag <- c(NA, d$y[-50])

  ## OLS regressions with/without lags
  m <- lm(y ~ x, data = d)
  mlag <- lm(y ~ x + ylag, data = d)

  ## p-value from Durbin-Watson and Breusch-Godfrey tests
  ## and the Wald test of the lag coefficient
  c(
    "DW" = dwtest(m)$p.value,
        "BG" = bgtest(m)$p.value,
    "Coef-Wald" = coeftest(mlag)[3, 4]
  )
}

Ensuite, nous pouvons simuler 1000 valeurs de p pour les trois modèles:

set.seed(1)
p <- t(replicate(1000, pvals()))

Le test de Durbin-Watson conduit aux valeurs p moyennes les plus faibles

colMeans(p)
##        DW        BG Coef-Wald 
## 0.1220556 0.2812628 0.2892220 

et la puissance la plus élevée au niveau de signification de 5%:

colMeans(p < 0.05)
##        DW        BG Coef-Wald 
##     0.493     0.256     0.248 

Ainsi, une autre limitation de la statistique DW est qu'elle ne peut pas être utilisée si le modèle tente déjà de contrôler l'autocorrélation. J'apprécie le fait que le DW a plus de puissance que Wald ou Breusch-Godfrey (dont je n'ai jamais utilisé), mais ma comparaison habituelle est avec un test de portemanteau comme Ljung-Box et les autocorrélations individuelles par rapport à un zéro de 0. C'est un régime typique dans la prévision des manuels.
zbicyclist

2
Ce n'est pas vraiment une autre limitation OMI mais la principale limitation. Les autres problèmes (calcul des valeurs de p plutôt que des bornes et nombre de retards) peuvent être traités. Et soyez prudent avec l'interprétation de la puissance: j'ai dit que dans ce modèle particulier - tendance déterministe avec terme d'erreur AR (1) - le test de Durbin-Watson a une puissance plus élevée. Cela peut ne pas être le cas dans de nombreuses autres configurations. Et comme pour le test de Ljung-Box: Oui, c'est le test classique pour vérifier l'autocorrélation restante après l'ajustement d'un modèle ARIMA.
Achim Zeileis

3

Le test de Durbin-Watson est la façon dont vous testez l'autocorrélation. Tracer un ACF, c'est comme faire un tracé QQ pour tester la normalité. Être capable de regarder un complot QQ pour tester la normalité est utile, mais un test de Kolmogorov-Smirnov ou Levene complète ce que vous voyez dans le complot car un test d'hypothèse de normalité est plus concluant.

En ce qui concerne les décalages multiples, vous pouvez utiliser une statistique Durbin-Watson généralisée, exécuter quelques tests d'hypothèse et effectuer une correction de Bonferroni pour corriger les tests multiples. Vous pouvez également exécuter un test de Breusch-Godfrey , qui teste la présence d'une corrélation de n'importe quel ordre.

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.