Чи існує припущення про логістичну регресію?


18

Чи існує припущення про змінну реакцій логістичної регресії?

Наприклад, припустимо, що у нас є точок даних. Здається, відповідь надходить з розподілу Бернуллі з . Тому у нас повинно бути розподілів Бернуллі з різним параметром .Y i p i = logit ( β 0 + β 1 x i ) 1000 p1000Yipi=logit(β0+β1xi)1000p

Отже, вони "незалежні", але не є "тотожними".

Я правий?


PS. Я дізнався логістичну регресію з літератури "машинного навчання", де ми оптимізуємо цільову функцію і перевіряємо, чи добре це при тестуванні даних, не надто розмовляючи про припущення.

Моє запитання почалося з цієї публікації Розуміння функції посилань у узагальненій лінійній моделі, де я намагаюся дізнатися більше про статистичні припущення.


1
"Припущення" - це те, що може мати теорема. Лінійна регресія має «припущення» про н.о.р. помилок (це не s, які «передбачається» бути н.о.р. в лінійної регресії! Це помилка) в тому сенсі , що Гаусс-Марков теорема має таке припущення. Тепер, чи є якась теорема про те, що хтось має розум для логістичної регресії? Якщо ні, то «припущень» немає. y
амеба каже, що поверніть Моніку

7
@Amoeba, hxd правильно, зазначивши, що розподіли не однакові: "iid" не застосовується. Якщо хтось використовує логістичну регресію лише для свого пристосування, то (як ви пишете), можливо, мало припущень; але як тільки використовується використана оціночна матриця коваріації коефіцієнтів або бажає побудувати інтервали прогнозування (або, з цього приводу, перехресне підтвердження прогнозованих значень), то це вимагає імовірнісних припущень. Звичайне - відповіді незалежні.
whuber

4
@amoeba, як тільки ви хочете виконати умовиводи (тести гіпотез, довірчі інтервали тощо), а не просто обчислити оцінки параметрів, ви зробите низку припущень (деякі більш критичні, ніж інші), щоб мати можливість отримати відповідне нульове розподіл тестова статистика або необхідні обчислення для інтервалу з потрібним покриттям. Навіть відносно низькі процедури припущення все ще мають припущення, і якщо ми піклуємося про наші умовиводи, ми будемо дбати про те, чи можуть вони мати щось поблизу своїх номінальних властивостей.
Glen_b -Встановити Моніку

1
@amoeba, мені подобається теорема, яка показує асимптотичну нормальність MLE. Мені також подобається тест на коефіцієнт ймовірності.
геймер

2
Їх граничні розподіли не є ідентичними, якщо всі вони не мають однакового значення передбачувача, і тоді ви просто маєте IID випробування на Бернуллі. Їх умовні розподіли (з огляду на прогноктор) все однакові, але я не думаю, що ти зазвичай сказав, що в цьому випадку є IID. Yi
геймер

Відповіді:


11

З попереднього запитання ви дізналися, що GLM описується з точки зору розподілу ймовірностей, лінійного предиктора та функції зв'язку g і описується якηg

η=XβE(Y|X)=μ=g1(η)

де - функція зв'язку logit, а Y передбачається, що слід розподілу БернулліgY

YiB(μi)

Yi μiXYiYi=g1(μ)YiYi

Н.о.р. припущення пов'язане з помилками в лінійної регресії (тобто Gaussian GLM), де модель

yi=β0+β1xi+εi=μi+εi

εiN(0,σ2)μi). Ми все ще хочемо, щоб залишки були "випадковими" навколо нуля, і ми не хочемо бачити в них жодних тенденцій, оскільки вони припускають, що є деякі ефекти, які не враховуються в моделі, але ми не припускаємо, що вони є нормальний та / або iid . Див. Також про важливість припущення про ід у статистичній навчальній нитці.

YiYiYi


6

Як було зазначено, хоча ми часто розглядаємо випадок помилок iid в лінійній регресії, це не має прямого еквівалента в більшості узагальнених лінійних моделей (включаючи логістичну регресію). У логістичній регресії ми, як правило, використовуємо припущення про незалежність результатів, які мають усі суворі відносини (тобто лінійні ефекти на ймовірності журналу). Але ці результати призводять до випадкових змінних, які не є ідентичними, і не підлягають розкладанню на постійний член плюс помилка iid, як це відбувається у випадку лінійної регресії.

Якщо ви дійсно хочете показати, що відповіді мають якесь iid відношення, то слідкуйте за мною наступного абзацу. Тільки знайте, що ця ідея трохи не забита; ви, можливо, не отримаєте повного кредиту за цю відповідь у фіналі, якщо вашому професору бракує терпіння.

XFXXquniform(0,1)X=FX1(q)p=expit(βo+β1x)FY(y|p)pYi

pi=expit(βo+β1xi)

qiuniform(0,1)

Yi=F1(qi|pi)

qi


1
qiYiB(pi)Yipiqi

@Tim: так, друга частина відповіді - це більше цікава сторона, ніж стисла відповідь. Але це може бути корисним способом поглянути на це; зрештою, саме так ваш комп'ютер моделює дані з цих моделей!
Кліф АВ
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.