Логістична регресія: тест anova chi-kvadrat порівняно зі значенням коефіцієнтів (anova () vs summary () у R)


35

У мене є логістична модель GLM з 8 змінними. Я провів тест-ква-квадрат у R anova(glm.model,test='Chisq')та 2 змінних виявились прогнозними, коли упорядковано у верхній частині тесту, і не так сильно, коли замовлено внизу. Напрошується summary(glm.model)думка, що їх коефіцієнти незначні (високе р-значення). У цьому випадку здається, що змінні не є істотними.

Мені хотілося запитати, який кращий тест значущості змінних - значення коефіцієнта в резюме моделі або тест чи-квадрата від anova(). Також - коли один чи кращий за іншого?

Я думаю, це питання широке, але будь-які вказівки щодо того, що слід врахувати, будуть вдячні.


4
Це аналогічно різниці між сумами квадратів I та III типу для тестування коефіцієнтів у лінійних моделях. Це може допомогти вам прочитати мою відповідь тут: як інтерпретувати тип I Послідовна ANOVA і MANOVA .
gung - Відновіть Моніку

Відповіді:


61

На додаток до відповіді @ gung, я спробую навести приклад того, що anovaфункція насправді тестує. Я сподіваюся, що це дозволяє вам вирішити, які тести підходять для гіпотез, які вас цікавлять.

Припустимо, що у вас є результат та 3 змінні прогноза: x 1 , x 2 та x 3 . Тепер, якби ваша модель логістичної регресії була б . Під час запуску функція порівнює наступні моделі в послідовному порядку:ух1х2х3my.mod <- glm(y~x1+x2+x3, family="binomial")anova(my.mod, test="Chisq")

  1. glm(y~1, family="binomial") vs. glm(y~x1, family="binomial")
  2. glm(y~x1, family="binomial") vs. glm(y~x1+x2, family="binomial")
  3. glm(y~x1+x2, family="binomial") vs. glm(y~x1+x2+x3, family="binomial")

Таким чином, він послідовно порівнює меншу модель із наступною, більш складною моделлю, додаючи одну змінну на кожному кроці. Кожне з цих порівнянь проводиться за допомогою тесту на коефіцієнт ймовірності (тест LR; див. Приклад нижче). Наскільки мені відомо, ці гіпотези цікавлять рідко, але це вам належить вирішити.

Ось приклад у R:

mydata      <- read.csv("https://stats.idre.ucla.edu/stat/data/binary.csv")
mydata$rank <- factor(mydata$rank)

my.mod <- glm(admit ~ gre + gpa + rank, data = mydata, family = "binomial")
summary(my.mod)

Coefficients:
             Estimate Std. Error z value Pr(>|z|)    
(Intercept) -3.989979   1.139951  -3.500 0.000465 ***
gre          0.002264   0.001094   2.070 0.038465 *  
gpa          0.804038   0.331819   2.423 0.015388 *  
rank2       -0.675443   0.316490  -2.134 0.032829 *  
rank3       -1.340204   0.345306  -3.881 0.000104 ***
rank4       -1.551464   0.417832  -3.713 0.000205 ***
   ---
Signif. codes:  0***0.001**0.01*0.05 ‘.’ 0.1 ‘ ’ 1 

# The sequential analysis
anova(my.mod, test="Chisq")

Terms added sequentially (first to last)    

     Df Deviance Resid. Df Resid. Dev  Pr(>Chi)    
NULL                   399     499.98              
gre   1  13.9204       398     486.06 0.0001907 ***
gpa   1   5.7122       397     480.34 0.0168478 *  
rank  3  21.8265       394     458.52 7.088e-05 ***
---
Signif. codes:  0***0.001**0.01*0.05 ‘.’ 0.1 ‘ ’ 1

# We can make the comparisons by hand (adding a variable in each step)

  # model only the intercept
mod1 <- glm(admit ~ 1,                data = mydata, family = "binomial") 
  # model with intercept + gre
mod2 <- glm(admit ~ gre,              data = mydata, family = "binomial") 
  # model with intercept + gre + gpa
mod3 <- glm(admit ~ gre + gpa,        data = mydata, family = "binomial") 
  # model containing all variables (full model)
mod4 <- glm(admit ~ gre + gpa + rank, data = mydata, family = "binomial") 

anova(mod1, mod2, test="LRT")

Model 1: admit ~ 1
Model 2: admit ~ gre
  Resid. Df Resid. Dev Df Deviance  Pr(>Chi)    
1       399     499.98                          
2       398     486.06  1    13.92 0.0001907 ***

anova(mod2, mod3, test="LRT")

Model 1: admit ~ gre
Model 2: admit ~ gre + gpa
  Resid. Df Resid. Dev Df Deviance Pr(>Chi)  
1       398     486.06                       
2       397     480.34  1   5.7122  0.01685 *

anova(mod3, mod4, test="LRT")

Model 1: admit ~ gre + gpa
Model 2: admit ~ gre + gpa + rank
  Resid. Df Resid. Dev Df Deviance  Pr(>Chi)    
1       397     480.34                          
2       394     458.52  3   21.826 7.088e-05 ***

psummary(my.mod)

  • Для коефіцієнта x1: glm(y~x2+x3, family="binomial")vs. glm(y~x1+x2+x3, family="binomial")
  • Для коефіцієнта x2: glm(y~x1+x3, family="binomial")vs.glm(y~x1+x2+x3, family="binomial")
  • Для коефіцієнта x3: glm(y~x1+x2, family="binomial")vs.glm(y~x1+x2+x3, family="binomial")

Отже кожен коефіцієнт проти повної моделі, що містить усі коефіцієнти. Тести Вальда - це наближення тесту на коефіцієнт ймовірності. Ми також могли б зробити тести на коефіцієнт ймовірності (тест LR). Ось як:

mod1.2 <- glm(admit ~ gre + gpa,  data = mydata, family = "binomial")
mod2.2 <- glm(admit ~ gre + rank, data = mydata, family = "binomial")
mod3.2 <- glm(admit ~ gpa + rank, data = mydata, family = "binomial")

anova(mod1.2, my.mod, test="LRT") # joint LR test for rank

Model 1: admit ~ gre + gpa
Model 2: admit ~ gre + gpa + rank
  Resid. Df Resid. Dev Df Deviance  Pr(>Chi)    
1       397     480.34                          
2       394     458.52  3   21.826 7.088e-05 ***

anova(mod2.2, my.mod, test="LRT") # LR test for gpa

Model 1: admit ~ gre + rank
Model 2: admit ~ gre + gpa + rank
  Resid. Df Resid. Dev Df Deviance Pr(>Chi)  
1       395     464.53                       
2       394     458.52  1   6.0143  0.01419 *

anova(mod3.2, my.mod, test="LRT") # LR test for gre

Model 1: admit ~ gpa + rank
Model 2: admit ~ gre + gpa + rank
  Resid. Df Resid. Dev Df Deviance Pr(>Chi)  
1       395     462.88                       
2       394     458.52  1   4.3578  0.03684 *

psummary(my.mod)

rankanova(my.mod, test="Chisq")rankanova(mod1.2, my.mod, test="Chisq")p7.08810-5rank


1
+1, це хороше, всебічне пояснення. 1 невеликий момент: Я вважаю, що коли test="Chisq"ви не запускаєте тест на коефіцієнт ймовірності, вам потрібно встановити test="LRT"це, див . Anova.glm .
gung - Відновіть Моніку

6
@gung Дякую за комплімент. test="LRT"і test="Chisq"є синонімами (це написано на сторінці, яку ви пов’язали).
COOLSerdash

2
Без проблем, але я думаю, що це насправді хороший момент. test="LRT"краще, оскільки відразу зрозуміло, що це тест на коефіцієнт ймовірності. Я це змінив. Спасибі.
COOLSerdash

4
+1 Я вражений вашим швидким прогресом тут всього за один місяць і вашою здатністю дати чітко відпрацьоване, чітке пояснення. Дякуємо за ваші зусилля!
whuber

1
Чудова відповідь. Чи можу я запитати, як 7.088e-05, 0.01419, 00.03684слід інтерпретувати значення p ( )?
TheSimpliFire
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.