Використання lm для 2-пробного тесту на пропорцію


12

Я деякий час використовував лінійні моделі для виконання тестів на 2 вибірки, але зрозумів, що це може бути не зовсім коректно. Здається, що використання узагальненої лінійної моделі з двочленним сімейством + ідентифікаційним зв’язком дає саме непідкупчені 2-вибіркові пропорційні результати тесту. Однак використання лінійної моделі (або glm з гауссова сім'я) дає дещо інший результат. Я раціоналізую, що це може бути пов'язано з тим, як R вирішує glm для двочленних та гауссових сімей, але чи може бути інша причина?

## prop.test gives pooled 2-sample proportion result
## glm w/ binomial family gives unpooled 2-sample proportion result
## lm and glm w/ gaussian family give unknown result

library(dplyr)
library(broom)
set.seed(12345)

## set up dataframe -------------------------
n_A <- 5000
n_B <- 5000

outcome <- rbinom(
  n = n_A + n_B,
  size = 1,
  prob = 0.5
)
treatment <- c(
  rep("A", n_A),
  rep("B", n_B)
)

df <- tbl_df(data.frame(outcome = outcome, treatment = treatment))


## by hand, 2-sample prop tests ---------------------------------------------
p_A <- sum(df$outcome[df$treatment == "A"])/n_A
p_B <- sum(df$outcome[df$treatment == "B"])/n_B

p_pooled <- sum(df$outcome)/(n_A + n_B)
z_pooled <- (p_B - p_A) / sqrt( p_pooled * (1 - p_pooled) * (1/n_A + 1/n_B) )
pvalue_pooled <- 2*(1-pnorm(abs(z_pooled)))

z_unpooled <- (p_B - p_A) / sqrt( (p_A * (1 - p_A))/n_A + (p_B * (1 - p_B))/n_B )
pvalue_unpooled <- 2*(1-pnorm(abs(z_unpooled)))


## using prop.test --------------------------------------
res_prop_test <- tidy(prop.test(
  x = c(sum(df$outcome[df$treatment == "A"]), 
        sum(df$outcome[df$treatment == "B"])),
  n = c(n_A, n_B),
  correct = FALSE
))
res_prop_test # same as pvalue_pooled
all.equal(res_prop_test$p.value, pvalue_pooled)
# [1] TRUE


# using glm with identity link -----------------------------------
res_glm_binomial <- df %>%
  do(tidy(glm(outcome ~ treatment, family = binomial(link = "identity")))) %>%
  filter(term == "treatmentB")
res_glm_binomial # same as p_unpooled
all.equal(res_glm_binomial$p.value, pvalue_unpooled)
# [1] TRUE


## glm and lm gaussian --------------------------------

res_glm <- df %>%
  do(tidy(glm(outcome ~ treatment))) %>%
  filter(term == "treatmentB")
res_glm 
all.equal(res_glm$p.value, pvalue_unpooled)
all.equal(res_glm$p.value, pvalue_pooled)

res_lm <- df %>%
  do(tidy(lm(outcome ~ treatment))) %>% 
  filter(term == "treatmentB")
res_lm
all.equal(res_lm$p.value, pvalue_unpooled)
all.equal(res_lm$p.value, pvalue_pooled)

all.equal(res_lm$p.value, res_glm$p.value)
# [1] TRUE

Відповіді:


8

Це не пов'язане з тим, як вони вирішують проблеми оптимізації, що відповідають розміщенню моделей, це стосується власне проблем оптимізації, які задають моделі.

Зокрема, у великих зразках ви можете ефективно вважати це порівнянням двох найменш зважених задач квадратів

lmВар(p^)=Вар(Х/н)=p(1-p)/н

* принаймні в деяких ситуаціях, хоча не обов'язково в прямому порівнянні пропорцій


0

З точки зору розрахунку порівняйте стандартну похибку коефіцієнта обробкиB для lm проти біноміального glm. Ви маєте формулу для стандартної похибки коефіцієнта обробки B в двочленному glm (знаменник z_unpooled). Стандартна похибка коефіцієнта обробки B в стандартному lm становить (SE_lm):

    test = lm(outcome ~ treatment, data = df)
    treat_B =  as.numeric(df$treatment == "B")
    SE_lm = sqrt( sum(test$residuals^2)/(n_A+n_B-2) / 
              sum((treat_B - mean(treat_B))^2))

σ2нА+нБ-2нА=нБ

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.