Чому залишки Пірсона від негативної біноміальної регресії менше, ніж ті, що виникають в результаті пуассонової регресії?


9

У мене є ці дані:

set.seed(1)
predictor  <- rnorm(20)
set.seed(1)
counts <- c(sample(1:1000, 20))
df <- data.frame(counts, predictor)

Я провів пуассонову регресію

poisson_counts <- glm(counts ~ predictor, data = df, family = "poisson")

І негативна біноміальна регресія:

require(MASS)
nb_counts <- glm.nb(counts ~ predictor, data = df)

Тоді я обчислював статистику дисперсії для пуассонової регресії:

sum(residuals(poisson_counts, type="pearson")^2)/df.residual(poisson_counts)

# [1] 145.4905

І негативна біноміальна регресія:

sum(residuals(nb_counts, type="pearson")^2)/df.residual(nb_counts)

# [1] 0.7650289

Хтось може пояснити, БЕЗ ВИКОРИСТАННЯ РІВНІВ, чому статистика дисперсії негативної біноміальної регресії значно менша, ніж статистика дисперсії для пуассонової регресії?

Відповіді:


9

Це досить просто, але "без використання рівнянь" є суттєвим недоліком. Я можу пояснити це словами, але ці слова обов'язково відображають рівняння. Я сподіваюся, що це буде прийнятним / все-таки для вас якесь значення. (Відповідні рівняння не є складними.)

Існує кілька видів залишків. Сирі залишки - це просто різниця між спостережуваними значеннями відповіді (у вашому випадку counts) та прогнозованими значеннями відповіді моделі. Залишки Пірсона діляться на стандартне відхилення (квадратний корінь дисперсійної функції для конкретної версії узагальненої лінійної моделі, яку ви використовуєте).

Стандартне відхилення, пов'язане з розподілом Пуассона , менше, ніж у негативного бінома . Таким чином, коли ви ділите на більший знаменник, коефіцієнт менший.

Крім того, негативний двочлен більше відповідає вашому випадку, тому що ваш countsрозподіл буде як рівномірний у сукупності. Тобто їх дисперсія не буде дорівнює їх середній.


4
Хоча ОП вимагає не математичного пояснення, все-таки було б добре бачити математичне (або якесь настільки ж жорстке і чітке) обґрунтування цієї відповіді. Прочитавши питання, моя інтуїція полягала в тому, що "Оскільки Пуассон є (обмежуючим) особливим випадком NB і NB має більше параметрів, є більше гнучкості в підгонці, так що, звичайно, будь-яка розумна міра залишків не повинна збільшуватися при заміні Poisson GLM від NB GLM. " Мені цікаво, чи справді така інтуїція була правильною.
whuber

Якщо , . Якщо , і . Отже, дисперсія Пуассона дорівнює середній, дисперсія NegBin більша за середню ( ). Ось чому "стандартне відхилення, пов'язане з розподілом Пуассона, менше, ніж у негативного двочлена". XPoisson(λ)E[X]=V[X]=λXNegBin(r,p)E[X]=pr/(1p)V[X]=pr/(1p)2p<1(1p)2<(1p)
Серхіо

3
@Sergio Суть справи полягає в тому, що в моделі Пуассона ми працюємо з оцінкою а не з , а в моделі NB ми аналогічно працюємо з двома оцінками і . Тому ваше порівняння не застосовується безпосередньо. Без реального запису формул для MLE в обох моделях, зовсім не очевидно, якими повинні бути зв’язки між цими наборами оцінок. Крім того, залишок Пірсона - це співвідношення, а аргумент щодо відхилень стосується лише знаменників, що становить лише половину історії. λ^λr^p^
whuber

Оцінки MLE узгоджуються. Проблема полягає в тому, що коли, як говорить Гунг, "підрахунки будуть розподілятися як уніформа в популяції. Тобто їх дисперсія не буде дорівнює їх середній", ви ніколи не зможете отримати оцінну дисперсію Пуассона, більшу, ніж передбачувана Пуассон означає, навіть якщо ваші оцінки неупереджені та послідовні. Це проблема неправильного уточнення.
Серхіо

5

Для моделі Пуассона, якщо очікування для го спостереження є його дисперсія дорівнює , а залишок Пірсона, отже,iYiμiμi

yiμ^iμ^i

де - середня оцінка. Параметризація негативної біноміальної моделі, що використовується в MASS , пояснюється тут . Якщо очікування для го спостереження дорівнює його дисперсія дорівнює , а залишок Пірсона, отжеμ^iYiμiμi+μ2θ

yiμ~iμ~i+μ~2θ

де - середня оцінка. Чим менше значення - тобто чим більше екстра-пуассонівська дисперсія, тим менша залишкова порівняно із її еквівалентом Пуассона. [Але, як зазначав @whuber, оцінки засобів не однакові, , оскільки процедура оцінки зважує спостереження відповідно до їх передбачуваної дисперсії. Якби ви зробили повторні вимірювання для ї схеми прогнозів, вони наблизилися б, і загалом додавання параметра повинно краще відповідати всім спостереженням, хоча я не знаю, як це жорстко продемонструвати. І все-таки кількість населення, яку ви оцінюєте, більша, якщо модель Пуассона дотримана, тому це не повинно бути сюрпризом.]μ~θμ^μ~i


1
Дякуємо, що представили деякі рівняння. Але чи будуть у двох моделях однакові значення? (Я не думаю, що так.) Якщо ні, як тоді можна порівняти два залишки Пірсона? μi
whuber

@whuber У цьому випадку виявляється, що встановлені значення для обох моделей майже однакові. Зрештою, "справжня" модель насправді просто перехоплює і в основному моделює середнє значення, оскільки між моделюванням x та Y не існує взаємозв'язку.
jsk

1
@jsk Так, я переглянув дані і запустив код. (BTW, можна змінити дані та отримати по суті однакову статистику дисперсії для двох моделей.) На жаль, ваша думка, яка є дійсною, досі не вирішує конкретного питання, а також не стосується (неявного) загального питання про порівнюючи залишки Пуассона із залишками NB, оскільки розрахункові відхилення також можуть бути майже однаковими. Один потенційно заплутаний аспект щодо цієї відповіді - використання символу " " для позначення того, що (в принципі) може бути різними оцінками у двох моделях одних і тих же даних. μi
whuber

1
@whuber Дійсно, у вас є дійсні моменти щодо використання . Цікаво, що я не можу знайти спосіб моделювання даних, який би призвів до меншої статистики дисперсії для Пуассона, ніж NB. Можливо, це неможливо? Я згоден, що це має сенс інтуїтивно. Це не просто довести, оскільки для mle не існує рішення закритої форми, коли у вас є glm з функцією зв'язку, відмінною від ідентичності. Але так, легко зробити дві статистики дисперсії дуже подібними. μi
jsk

1
@jsk - один теоретичний аргумент, щоб підозрювати, що модель NB завжди буде краще, ніж Пуассон, - це те, що ви можете записати NB як розподіл складових пуассон-гамма. Отже, у вас а потім дає негативну біноміальну модель . Тепер додавання цих параметрів дозволяє моделі зробити прогнозована середня ближче до спостережуваного значенням (при ви побачите , зменшення залишку.)(yi|λ,vi,r)Poisson(λvi)(vi|λ,r)Gamma(r,r)(yi|λ,r)NB(r,λr+λ)viyi>λvi>1
probabilityislogic
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.