Якщо у мене є набір даних із дуже рідкісним позитивним класом, і я знижую вибірку негативного класу, то виконую логістичну регресію, чи потрібно мені коригувати коефіцієнти регресії, щоб відобразити той факт, що я змінив поширеність позитивного класу?
Наприклад, скажімо, у мене є набір даних із 4 змінними: Y, A, B і C. Y, A і B є двійковими, C - безперервним. Для 11 100 спостережень Y = 0, а для 900 Y = 1:
set.seed(42)
n <- 12000
r <- 1/12
A <- sample(0:1, n, replace=TRUE)
B <- sample(0:1, n, replace=TRUE)
C <- rnorm(n)
Y <- ifelse(10 * A + 0.5 * B + 5 * C + rnorm(n)/10 > -5, 0, 1)
Мені підходить логістична регресія для прогнозування Y, заданих A, B і C.
dat1 <- data.frame(Y, A, B, C)
mod1 <- glm(Y~., dat1, family=binomial)
Однак, щоб заощадити час, я міг видалити 10 200 спостережень, які не належать Y, даючи 900 Y = 0 і 900 Y = 1:
require('caret')
dat2 <- downSample(data.frame(A, B, C), factor(Y), list=FALSE)
mod2 <- glm(Class~., dat2, family=binomial)
Коефіцієнти регресії в двох моделях виглядають дуже схоже:
> coef(summary(mod1))
Estimate Std. Error z value Pr(>|z|)
(Intercept) -127.67782 20.619858 -6.191983 5.941186e-10
A -257.20668 41.650386 -6.175373 6.600728e-10
B -13.20966 2.231606 -5.919353 3.232109e-09
C -127.73597 20.630541 -6.191596 5.955818e-10
> coef(summary(mod2))
Estimate Std. Error z value Pr(>|z|)
(Intercept) -167.90178 59.126511 -2.83970391 0.004515542
A -246.59975 4059.733845 -0.06074284 0.951564016
B -16.93093 5.861286 -2.88860377 0.003869563
C -170.18735 59.516021 -2.85952165 0.004242805
Що приводить мене до думки, що зменшення вибірки не вплинуло на коефіцієнти. Однак це єдиний надуманий приклад, і я вважаю за краще точно знати.
mod2
), Pr(>|z|)
для A
майже 1. Ми не можемо відкинути нульову гіпотезу про те , що коефіцієнт A
дорівнює 0 , тому ми втратили коварьіровать , який використовується в mod1
. Це не суттєва різниця?