У мене є ці дані:
set.seed(1)
predictor <- rnorm(20)
set.seed(1)
counts <- c(sample(1:1000, 20))
df <- data.frame(counts, predictor)
Я провів пуассонову регресію
poisson_counts <- glm(counts ~ predictor, data = df, family = "poisson")
І негативна біноміальна регресія:
require(MASS)
nb_counts <- glm.nb(counts ~ predictor, data = df)
Тоді я обчислював статистику дисперсії для пуассонової регресії:
sum(residuals(poisson_counts, type="pearson")^2)/df.residual(poisson_counts)
# [1] 145.4905
І негативна біноміальна регресія:
sum(residuals(nb_counts, type="pearson")^2)/df.residual(nb_counts)
# [1] 0.7650289
Хтось може пояснити, БЕЗ ВИКОРИСТАННЯ РІВНІВ, чому статистика дисперсії негативної біноміальної регресії значно менша, ніж статистика дисперсії для пуассонової регресії?