Як зазначав kjetil b halvorsen, це, по-своєму, диво, що лінійна регресія допускає аналітичне рішення. І це так лише в силу лінійності проблеми (щодо параметрів). В OLS у вас є
який має умови першого порядку
Для задачі з змінними (у т.ч. константа, якщо потрібно - є також певна регресія через проблеми виникнення), це система з рівняннями і
∑i( уi- х'iβ)2→ хвβ,
p p p−2∑i(yi−x′iβ)xi=0
pppневідомі. Найголовніше - це лінійна система, тому ви можете знайти рішення, використовуючи стандартну
теорію та практику лінійної алгебри . Ця система матиме рішення з ймовірністю 1, якщо у вас немає ідеально колінеарних змінних.
Тепер з логістичною регресією все вже не так просто. Записавши функцію вірогідності журналу,
і взявши його похідну для пошуку MLE, отримаємо
Параметри вводять це дуже нелінійно: для кожного є нелінійна функція, і вони додаються разом. Немає аналітичного рішення (крім, мабуть, у тривіальній ситуації з двома спостереженнями чи чимось подібним), і вам доведеться використовувати∂ l
l(y;x,β)=∑iyilnpi+(1−yi)ln(1−pi),pi=(1+exp(−θi))−1,θi=x′iβ,
βя β∂l∂β′=∑idpidθ(yipi−1−yi1−pi)xi=∑i[yi−11+exp(x′iβ)]xi
βiнелінійні методи оптимізації для пошуку оцінок .
β^
Дещо глибший погляд на проблему (взяття другої похідної) виявляє, що це проблема опуклої оптимізації пошуку максимуму увігнутої функції (прославленої багатоваріантної параболи), тому будь-яка існує, і будь-який розумний алгоритм повинен знайти її швидше швидко, або речі здуваються до нескінченності. Останнє відбувається з логістичною регресією, коли для деякого , тобто у вас ідеальний прогноз. Це досить неприємний артефакт: ви могли б подумати, що коли у вас ідеальний прогноз, модель працює чудово, але досить цікаво, це навпаки.cП р о б [ Уi= 1 | х'iβ>c]=1c