Чим відрізняється біноміальна регресія від логістичної регресії?


20

Я завжди розглядав логістичну регресію як просто особливий випадок біноміальної регресії, де функцією зв'язку є логістична функція (замість, скажімо, пробіт-функції).

Однак, якщо я прочитав відповіді на інше запитання , то, схоже, я може бути переплутаний, і між логістичною регресією та біноміальною регресією є логічна ланка.

Яка різниця?

Відповіді:


13

Логістична регресія - це біноміальна регресія з функцією "логістичного" зв'язку:

g(p)=log(p1p)=Xβ

Хоча я також думаю, що логістична регресія зазвичай застосовується до біноміальних пропорцій, а не до числа біномів.


1
Що ви маєте на увазі під логістичною регресією, яка зазвичай застосовується до пропорцій, а не до підрахунків? Припустимо, я намагаюся передбачити, чи будуть люди відвідувати вечірку чи ні, і що для певної партії я знаю, що 9 людей відвідали, а 1 - ні, ви маєте на увазі, що логістична регресія сприймає це як один із навчальних прикладів (тобто, ця партія мала успіх 0,9), тоді як біноміальна регресія з посиланням сприйме це як 10 прикладів тренувань (9 успіхів, 1 провал)?
raegtin

@raehtin - в обох випадках це буде зразок / навчальний випадок, при цьому ( n i , f i ) = ( 10 , 0,9 ) і ( n i , x i ) = ( 10 , 9 ) відповідно. Різниця полягає у формі середньої та дисперсійної функцій. Для двочлена середнє значення μ i = n i p i , канонічна ланка тепер log ( μ i1(ni,fi)=(10,0.9)(ni,xi)=(10,9)μi=nipi(його також називають "природним параметром"), а функцією дисперсії єV(μi)=μi(ni-μi)log(μiniμi) з параметром дисперсіїϕi=1. Для логістики маємо середнєμi=pi, наведене вище посилання, дисперсійну функціюV(μi)=μi(1-μi)та дисперсію, рівнуϕi=1V(μi)=μi(niμi)niϕi=1μi=piV(μi)=μi(1μi) . ϕi=1ni
ймовірністьлогічний

За допомогою логістики відокремлюється від середньої та дисперсійної функцій, тому її можна легше врахувати через зважуванняni
ймовірністьлогічний

Ах, зрозумів, я думаю, що бачу. Чи означає це, що вони дають рівноцінні результати (просто дійшли до іншого)?
raegtin

1
@raegtin - я так думаю. Ваги GLM, , в обох випадках рівні, і функція зв'язку створює однакове значення logit. Тому поки змінні X також однакові, то це повинно дати ті самі результати. wi2=1ϕiV(μi)[g(μi)]2
ймовірністьлогічний

4

var(Y)=Y^(1Y^)Y^=logit1(Xβ^)=1/(1exp(Xβ^))[0,1]

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.