У стандартній множинній лінійній регресії можливість встановлення оцінок звичайних найменших квадратів (OLS) у два етапи походить від теореми Фріша – Ву-Ловелла . Ця теорема показує, що оцінка коефіцієнта для конкретного предиктора у множинній лінійній моделі дорівнює оцінці, отриманій регресуванням залишків відповіді (залишків від регресії змінної реакції проти інших пояснювальних змінних) проти залишків предиктора (залишків від регресії змінної предиктора щодо інших пояснювальних змінних. Очевидно, ви шукаєте аналогію з цією теоремою, яку можна використовувати в моделі логістичної регресії.
Для цього питання корисно пригадати латентно-змінну характеристику логістичної регресії :
Yi=I(Y∗i>0)Y∗i=β0+βXxi+βZzi+εiεi∼IID Logistic(0,1).
У цій характеристиці моделі змінна латентної відповіді є непомітною, і замість цього ми спостерігаємо показник який повідомляє нам, чи є латентна відповідь позитивною чи ні. Ця форма моделі схожа на множинні лінійні регресії, за винятком того, що ми використовуємо дещо інший розподіл помилок (логістичний розподіл замість нормального розподілу), і що ще важливіше, ми спостерігаємо лише показник, який показує, чи є латентна реакція позитивною чи ні .Y∗iYi
Це створює проблему для будь-якої спроби створити двоетапну підгонку моделі. Ця теорема Фріша-Во-Ловелла залежить від здатності отримувати проміжні залишки для відповіді та прогнозованого інтересу проти інших пояснювальних змінних. У цьому випадку ми можемо отримати залишки лише із "категоризованої" змінної відповіді. Створення двоступеневого процесу пристосування для логістичної регресії вимагатиме від вас використання залишків відповіді з цієї категоризованої змінної відповіді без доступу до базової латентної відповіді. Мені це здається головним перешкодою, і, хоча це не доводить неможливості, здається, що неможливо підібрати модель в два кроки.
Нижче я розповім про те, що потрібно, щоб знайти двоетапний процес, який би відповідав логістичній регресії. Я не впевнений, чи є вирішення цієї проблеми чи є докази неможливості, але тут матеріал повинен дати вам певний шлях до розуміння того, що потрібно.
Як виглядатиме двоступенева логістична регресія? Припустимо, ми хочемо побудувати двоступеневу підгонку для логістичної регресійної моделі, де параметри оцінюються за допомогою оцінки максимальної ймовірності на кожному кроці. Ми хочемо, щоб процес включав проміжний крок, який відповідає наступним двом моделям:
Yi=I(Y∗∗i>0)Y∗∗i=α0+αXxi+τi Zi=γ0+γXxi+δiτi∼IID Logistic(0,1),δi∼IID g.
Ми оцінюємо коефіцієнти цих моделей (через MLE), і це дає проміжні пристосовані значення . Потім на другому кроці ми підходимо до моделі:α^0,α^X,γ^0,γ^X
Yi=logistic(α^0+α^1xi)+βZ(zi−γ^0−γ^Xxi)+ϵiϵi∼IID f.
Як зазначено, у процедурі багато фіксованих елементів, але функції щільності і на цих етапах залишаються невизначеними (хоча вони повинні бути нульово-середніми розподілами, які не залежать від даних). Для отримання двоступеневого методу підгонки за цими обмеженнями нам потрібно вибрати і щоб переконатися, що MLE для у цьому алгоритмі пристосування моделі є таким же, як MLE, отриманий з одномоментної логістичної регресійної моделі вище.gfgfβZ
Щоб побачити, чи це можливо, спочатку записуємо всі оцінені параметри з першого кроку:
ℓy|x(α^0,α^X)ℓz|x(γ^0,γ^X)=maxα0,αX∑i=1nlnBern(yi|logistic(α0+αXxi)),=maxγ0,γX∑i=1nlng(zi−γ0−γXxi).
Нехай так що функція вірогідності журналу для другого кроку є:ϵi=yi−logistic(α^0−α^1xi)+βZ(zi−γ^0−γ^Xxi)
ℓy|z|x(βZ)=∑i=1nlnf(yi−logistic(α^0−α^1xi)+βZ(zi−γ^0−γ^Xxi)).
Ми вимагаємо, щоб максимальна величина цієї функції була MLE моделі множинної логістичної регресії. Іншими словами, ми вимагаємо:
arg max βXℓy|z|x(βZ)=arg max βXmaxβ0,βZ∑i=1nlnBern(yi|logistic(β0+βXxi+βZzi)).
Я залишаю це іншим, щоб визначити, чи є рішення цієї проблеми чи доказ того, що немає рішення. Я підозрюю, що «категоризація» змінної латентної реакції у логістичній регресії унеможливить пошук двоступеневого процесу.