Залишки відхилення Пірсона В. С. в логістичній регресії


16

Я знаю, що стандартизовані залишки Пірсона отримуються традиційним імовірнісним способом:

ri=yiπiπi(1πi)

і залишки відхилення отримують більш статистичним способом (внесок кожної точки у ймовірність):

di=si2[yilogπi^+(1yi)log(1πi)]

де = 1, якщо y i = 1 і s i = -1, якщо y i = 0.siyisiyi

Чи можете ви пояснити мені інтуїтивно, як інтерпретувати формулу залишків відхилень?

Більше того, якщо я хочу вибрати один, який із них більше підходить і чому?

До речі, деякі посилання стверджують, що ми виводимо залишки відхилення на основі терміна

12ri2

де згадується вище.ri


Будь-які думки були б вдячні
Джек Ши

1
Коли ви говорите "деякі посилання" ... які посилання, і як вони це роблять?
Glen_b -Встановіть Моніку

Відповіді:


10

Логістична регресія спрямована на те, щоб максимально використовувати функцію вірогідності журналу

LL=kln(Pi)+rln(1Pi)

PiY^=1kY=1rY=0

Цей вираз дорівнює

LL=(kdi2+rdi2)/2

тому що залишкове відхилення випадку визначається як:

гi={-2ln(Пi)якщо Yi=1--2ln(1-Пi)якщо Yi=0

Таким чином, бінарна логістична регресія прагне безпосередньо мінімізувати суму залишків відхилення у квадраті. Саме залишки відхилення маються на увазі в алгоритмі регресії ML.

Статистична характеристика моделі Chi-sq є 2(LLповна модель-LLзменшена модель), де повна модель містить предиктори, а зменшена модель - ні.

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.