Чому квазі-Пуассон в ГЛМ не трактується як особливий випадок негативного бінома?


21

Я намагаюся пристосувати узагальнені лінійні моделі до деяких наборів даних про підрахунок, які можуть або не можуть бути перерозподілені. Два канонічні розподіли, які застосовуються тут, - пуассонівський та негативний біноміал (Негбін), з EV та дисперсієюмк

VаrП=мк

VаrNБ=мк+мк2θ

які можуть бути встановлені в R, використовуючи glm(..,family=poisson)і glm.nb(...), відповідно. Є також quasipoissonсім'я, яка, на моє розуміння, - скоригований Пуассон з тим самим EV і дисперсією

VаrQП=ϕмк ,

тобто падіння десь між Пуассоном та Негбіном. Основна проблема сімейства квазіпуасонів полягає в тому, що немає відповідної ймовірності для цього, а значить, дуже багато надзвичайно корисних статистичних тестів та відповідних заходів (AIC, LR etcetera) недоступні.

Якщо ви порівнюєте дисперсії QP та Negbin, ви можете помітити, що ви можете їх прирівняти, поставивши . Продовжуючи цю логіку, ви можете спробувати виразити розподіл квазіпуассона як особливий випадок Негбіна:ϕ=1+мкθ

QП(мк,ϕ)=NБ(мк,θ=мкϕ-1) ,

тобто Негбін з лінійно залежним від . Я спробував перевірити цю ідею, генеруючи випадкову послідовність чисел відповідно до вищезгаданої формули та підганяючи її до :θмкglm

#fix parameters

phi = 3
a = 1/50
b = 3
x = 1:100

#generating points according to an exp-linear curve
#this way the default log-link recovers the same parameters for comparison

mu = exp(a*x+b) 
y = rnbinom(n = length(mu), mu = mu, size = mu/(phi-1)) #random negbin generator

#fit a generalized linear model y = f(x)  
glmQP = glm(y~x, family=quasipoisson) #quasipoisson
glmNB = glm.nb(y~x) #negative binomial

> glmQP

Call:  glm(formula = y ~ x, family = quasipoisson)

Coefficients:
(Intercept)            x  
    3.11257      0.01854  
(Dispersion parameter for quasipoisson family taken to be 3.613573)

Degrees of Freedom: 99 Total (i.e. Null);  98 Residual
Null Deviance:      2097 
Residual Deviance: 356.8    AIC: NA

> glmNB

Call:  glm.nb(formula = y ~ x, init.theta = 23.36389741, link = log)

Coefficients:
(Intercept)            x  
    3.10182      0.01873  

Degrees of Freedom: 99 Total (i.e. Null);  98 Residual
Null Deviance:      578.1 
Residual Deviance: 107.8    AIC: 824.7

Обидва підходи відтворюють параметри, і квазіпойсон дає «розумну» оцінку для . Тепер ми також можемо визначити значення AIC для квазіпойсона:ϕ

df = 3 # three model parameters: a,b, and phi
phi.fit = 3.613573 #fitted phi value copied from summary(glmQP)
mu.fit = glmQP$fitted.values 

#dnbinom = negbin density, log=T returns log probabilities
AIC = 2*df - 2*sum(dnbinom(y, mu=mu.fit, size = mu.fit/(phi.fit - 1), log=T))
> AIC
[1] 819.329

(Мені довелося вручну скопіювати встановлене значення , оскільки я не зміг його знайти в об'єкті)ϕsummary(glmQP)glmQP

Оскільки , це означатиме, що квазіпойсон, не дивно, тим краще підходить; тож принаймні робить те, що повинен робити, і, отже, це може бути розумним визначенням для АПК (і за розширенням, ймовірністю) квазіпойсону. Тоді у мене залишаються великі питанняАЯСQП<АЯСNБАЯСQП

  1. Чи має сенс ця ідея? Чи базується моя верифікація на кругових міркуваннях?
  2. Головне питання для тих, хто «вигадує» щось, що, здається, відсутнє у добре налагодженій темі: якщо ця ідея має сенс, чому вона вже не реалізована glm?

Редагувати: цифра додана

glm підходить і + -1 сигма-смуги


1
(+1) Ласкаво просимо до перехресної перевірки! І дякую за відмінне запитання (хоча кілька коментарів у коді можуть бути приємними для людей, які не використовують R). Я думаю, ви, можливо, переробили модель NB1 (хоча я її ще не докладно дотримувався). Зауважте також, що не існує квазі-пуассонівського розподілу - через що немає ймовірності чи AIC - це просто стосується способу пристосування засобів та відхилень.
Scortchi

2
Спасибі! Тим часом я додав кілька коментарів, сподіваюся, що все прояснить. Я розумію, що розподіл квазі-Пуассона сам по собі не існує - те, що я насправді намагався з'ясувати, чому QP взагалі річ, враховуючи, що розподіл NB1 існує і не має жодної з квазіпроблем QP (див. відповідь Ахімса для явної резолюції).
користувач28400

1
@Scortchi --- насправді є такий розподіл ... Якщо , а , то - експоненціальна сім'я із середнім та дисперсією . Якщо . Це не обов'язково підходить для підрахунку даних (крім як наближення), так як він визначений на . ХОтруєння(λ)Y=кХYмк=кλкмкк10,к,2к,...
Glen_b -Встановіть Моніку

1
@Glen_b: Чи справді люди називають це квазі-Пуассоном? У будь-якому випадку це приємна ілюстрація - коли ви використовуєте модель "квазіПойсон", ви насправді не припускаєте, що розподіл, або NB1, або будь-яка інша, а лише співвідношення між середньою та дисперсією, яка робить ваші оцінки коефіцієнтів та їх стандартними помилками краще, оскільки зразок стає більшим.
Scortchi

1
@Scortchi Це єдиний експоненціальний розподіл сім'ї, який задовольняє припущення квазі-Пуассона, начебто - колись я бачив, як люди вказують, що це розподіл передбачає припущення. Звичайно, коли люди користуються ним, вони майже ніколи не мають наміру, що їхні дані походять від конкретного розподілу - це просто призначене як приблизний опис того, як співвідносяться їх середня величина та різниця. (Це може мати сенс у дуже простих припущеннях у деяких страхових заявках - загальна вартість відшкодувань, де кількість претензій - Пуассон, а вартість за претензію фактично постійна.)
Glen_b -Встановити Моніку

Відповіді:


24

Квазі-Пуассон - це не повна максимальна ймовірність (ML), а модель квазі-ML. Ви просто використовуєте оціночну функцію (або функцію оцінки) з моделі Пуассона, щоб оцінити коефіцієнти, а потім використовувати певну дисперсійну функцію для отримання відповідних стандартних помилок (а точніше, повної матриці коваріації) для виконання умовиводу. Таким чином, glm()не постачає і logLik()чи AIC()сюди і т.д.

sizeθiмкi

Якщо немає регресорів (лише перехоплення), параметризація NB1 та параметризація NB2, використовувані MASS's, glm.nb()збігаються. З регресорами вони відрізняються. У статистичній літературі частіше використовується параметризація NB2, але деякі програмні пакети також пропонують версію NB1. Наприклад, в R ви можете використовувати gamlssпакет для виконання gamlss(y ~ x, family = NBII). Зауважимо, що дещо заплутано gamlssвикористовується NBIдля параметризації NB2 та NBIIдля NB1. (Але жаргон та термінологія не уніфіковані у всіх громадах.)

Тоді ви, звичайно, можете запитати, навіщо використовувати квазі-Пуассон, якщо є NB1? Є ще незначна різниця: колишній використовує квазі-ML та отримує оцінку за дисперсією від залишків квадратного відхилення (або Пірсона). Останній використовує повний ML. На практиці різниця часто не велика, але мотиви використання будь-якої моделі дещо відрізняються.


1
Спасибі! Дуже корисна відповідь, я зараз експериментую, gamlssі схоже, це саме те, що мені потрібно. Не могли б ви детальніше розглянути мотиви використання квазіімовірності проти повної ML?
користувач28400

2
Ви припускаєте менше: Ви просто припускаєте (1) логарифмічну залежність між очікуванням та регресорами (2) лінійну залежність між дисперсією та очікуванням. Решта ймовірності залишається повністю не визначеною. В якості альтернативи (2) практикуючі іноді використовують так звані "міцні" стандартні помилки сендвіч, які дозволять отримати більш загальні схеми гетероскдастичності. Звичайно, можна було б також застосувати NB1 із сендвіч-стандартними помилками ... Ще кілька коментарів у нас vignette("countreg", package = "pscl").
Ахім Цейлей
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.