Wie bereits in diesem und anderen Themen erwähnt: (1) Der Durbin-Watson-Test ist nicht nicht schlüssig. Nur die ursprünglich von Durbin und Watson vorgeschlagenen Grenzen waren, weil die genaue Verteilung von der beobachteten Regressormatrix abhängt. Dies ist jedoch in der statistischen / ökonometrischen Software inzwischen leicht zu beheben. (2) Es gibt Verallgemeinerungen des Durbin-Watson-Tests auf höhere Verzögerungen. Daher ist weder Unschlüssigkeit noch Begrenzung von Verzögerungen ein Argument gegen den Durbin-Watson-Test.
Im Vergleich zum Wald-Test der verzögerten abhängigen Variablen kann der Durbin-Watson-Test in bestimmten Modellen eine höhere Leistung aufweisen. Insbesondere wenn das Modell deterministische Trends oder saisonale Muster enthält, kann es besser sein, die Autokorrelation in den Residuen zu testen (wie dies beim Durbin-Watson-Test der Fall ist), als die verzögerte Antwort einzubeziehen (die noch nicht an die deterministischen Muster angepasst ist). . Ich füge unten eine kleine R-Simulation hinzu.
Ein wichtiger Nachteil des Durbin-Watson-Tests besteht darin, dass er nicht auf Modelle angewendet werden darf, die bereits autoregressive Effekte enthalten. Daher können Sie die verbleibende verbleibende Autokorrelation nicht testen, nachdem Sie sie teilweise in einem autoregressiven Modell erfasst haben. In diesem Szenario kann die Leistung des Durbin-Watson-Tests vollständig ausfallen, während dies beim Breusch-Godfrey-Test beispielsweise nicht der Fall ist. Unser Buch "Angewandte Ökonometrie mit R" enthält eine kleine Simulationsstudie, die dies im Kapitel "Programmieren Ihrer eigenen Analyse" unter http://eeecon.uibk.ac.at/~zeileis/teaching/AER/ zeigt .
Für einen Datensatz mit Trend plus autokorrelierten Fehlern ist die Leistung des Durbin-Watson-Tests jedoch höher als für den Breusch-Godfrey-Test und auch höher als für den Wald-Test der autoregressiven Wirkung. Ich illustriere dies für ein einfaches kleines Szenario in R. Ich zeichne 50 Beobachtungen aus einem solchen Modell und berechne p-Werte für alle drei Tests:
pvals <- function()
{
## data with trend and autocorrelated error term
d <- data.frame(
x = 1:50,
err = filter(rnorm(50), 0.25, method = "recursive")
)
## response and corresponding lags
d$y <- 1 + 1 * d$x + d$err
d$ylag <- c(NA, d$y[-50])
## OLS regressions with/without lags
m <- lm(y ~ x, data = d)
mlag <- lm(y ~ x + ylag, data = d)
## p-value from Durbin-Watson and Breusch-Godfrey tests
## and the Wald test of the lag coefficient
c(
"DW" = dwtest(m)$p.value,
"BG" = bgtest(m)$p.value,
"Coef-Wald" = coeftest(mlag)[3, 4]
)
}
Dann können wir 1000 p-Werte für alle drei Modelle simulieren:
set.seed(1)
p <- t(replicate(1000, pvals()))
Der Durbin-Watson-Test führt zu den niedrigsten durchschnittlichen p-Werten
colMeans(p)
## DW BG Coef-Wald
## 0.1220556 0.2812628 0.2892220
und die höchste Leistung bei 5% Signifikanzniveau:
colMeans(p < 0.05)
## DW BG Coef-Wald
## 0.493 0.256 0.248