Як було зазначено раніше у цій та інших темах: (1) Тест Дурбіна-Уотсона не є переконливим. Лише межі, запропоновані Пербіном Дурбіном та Уотсоном, були тому, що точний розподіл залежить від спостережуваної регресорної матриці. Однак це вже досить просто вирішити в статистичному / економетричному програмному забезпеченні. (2) Існують узагальнення тесту Дурбіна-Уотсона на більш високі відставання. Тож ні непереконливість, ні обмеженість відстань не є аргументом проти тесту Дурбіна-Уотсона.
Порівняно з тестом Вальда залежної залежної змінної, тест Дурбіна-Уотсона може мати більшу потужність у певних моделях. Зокрема, якщо модель містить детерміновані тенденції або сезонні структури, то можна краще перевірити на автокореляцію в залишках (як це робить тест Дурбіна-Уотсона) порівняно з включенням відсталої реакції (яка ще не скоригована для детермінованих моделей) . Я включаю невеликий моделювання R нижче.
Одним з важливих недоліків тесту Дурбіна-Уотсона є те, що він не повинен застосовуватися до моделей, які вже містять авторегресивні ефекти. Таким чином, ви не можете перевірити наявність залишкової автокореляції після часткового фіксації її в авторегресивній моделі. У такому сценарії потужність випробування Дурбіна-Уотсона може повністю зруйнуватися, наприклад, для тесту Бреуша-Годфрі, наприклад, цього немає. У нашій книзі "Прикладна економетрія з R" є невелике імітаційне дослідження, яке показує це у розділі "Програмування власного аналізу", див. Http://eeecon.uibk.ac.at/~zeileis/teaching/AER/ .
Для набору даних з тенденцією плюс автокорельовані помилки потужність тесту Дурбіна-Уотсона вище, ніж для тесту Бреуша-Годфрі, проте, а також вище, ніж для тесту Вольда на авторегресивний ефект. Я ілюструю це для простого невеликого сценарію в Р. Я черпаю 50 спостережень з такої моделі і обчислюю p-значення для всіх трьох тестів:
pvals <- function()
{
## data with trend and autocorrelated error term
d <- data.frame(
x = 1:50,
err = filter(rnorm(50), 0.25, method = "recursive")
)
## response and corresponding lags
d$y <- 1 + 1 * d$x + d$err
d$ylag <- c(NA, d$y[-50])
## OLS regressions with/without lags
m <- lm(y ~ x, data = d)
mlag <- lm(y ~ x + ylag, data = d)
## p-value from Durbin-Watson and Breusch-Godfrey tests
## and the Wald test of the lag coefficient
c(
"DW" = dwtest(m)$p.value,
"BG" = bgtest(m)$p.value,
"Coef-Wald" = coeftest(mlag)[3, 4]
)
}
Тоді ми можемо змоделювати 1000 p-значень для всіх трьох моделей:
set.seed(1)
p <- t(replicate(1000, pvals()))
Тест Дурбіна-Уотсона призводить до найнижчих середніх p-значень
colMeans(p)
## DW BG Coef-Wald
## 0.1220556 0.2812628 0.2892220
і найвища потужність на рівні 5% значущості:
colMeans(p < 0.05)
## DW BG Coef-Wald
## 0.493 0.256 0.248