Чому логістична регресія є лінійним класифікатором?


49

Оскільки ми використовуємо логістичну функцію для перетворення лінійної комбінації вхідних даних у нелінійний вихід, як можна вважати логістичну регресію лінійним класифікатором?

Лінійна регресія подібна до нейронної мережі без прихованого шару, тому чому нейронні мережі вважаються нелінійними класифікаторами, а логістична регресія - лінійною?


7
Перетворення «лінійна комбінації входу в нелінійному вихід» є одним з основної частини визначення про наявність лінійного класифікатора . Це зводить це питання до другої частини, що означає демонстрацію того, що Нейронні мережі в цілому не можуть бути виражені як лінійні класифікатори.
whuber

1
@whuber: Як ви пояснюєте той факт, що модель логістичної регресії може приймати поліноміальні змінні предиктора (наприклад, ) для отримання нелінійної межі рішення? Це все-таки лінійний класифікатор? w1x12+w2x23
stackoverflowuser2010

4
@Stack Концепція "лінійного класифікатора" зароджується концепцією лінійної моделі. "Лінійність" в моделі може набувати декількох форм, як описано на сайті stats.stackexchange.com/a/148713 . Якщо ми приймемо характеристику Вікіпедії лінійних класифікаторів , то ваш поліномний приклад буде розглядатися як нелінійний з точки зору заданих "особливостей" та але він буде лінійним за ознаками та . Ця відмінність забезпечує корисний спосіб використання властивостей лінійності. x1x2x12x23
whuber

1
Я все ще трохи розгублений щодо питання, чи є межа лінійного класифікатора лінійного рішення? Я стежив за курсом машинного навчання Ендрю Нг, і він згадав таке :! [Введіть опис зображення тут ] ( i.stack.imgur.com/gHxfr.png ) Тож насправді мені здається, що ніхто не відповів на це залежить від лінійності чи нелінійності межі рішення, що залежить від функції Гіпотези, визначеної як Htheta (X), де X є вхідним, а Theta - змінними нашої проблеми. Чи має для тебе сенс?
brokensword

Відповіді:


42

Логістична регресія лінійна, тому що прогнози можна записати як Таким чином, передбачення можна записати через , що є лінійною функцією . (Точніше, прогнозовані логічні коефіцієнти - це лінійна функція .)

p^=11+eμ^, where μ^=θ^x.
μ^xx

І навпаки, немає можливості узагальнити вихід нейронної мережі за лінійною функцією , і саме тому нейронні мережі називають нелінійними.x

Також для логістичної регресії межа рішення лінійна: це рішення . Межа рішення нейронної мережі, як правило, не є лінійною.{x:p^=0.5}θ^x=0


2
Ви відповідаєте, є найбільш зрозумілим і найскладнішим для мене поки що. Але я трохи розгублений. Деякі кажуть, що прогнозовані логічні коефіцієнти є лінійною функцією а інші кажуть, що це лінійна функція . Тому?! xθ
Джек Твен

1
то також за вашим поясненням. Чи можна сказати, що прогнозування нейронної мережі є лінійною функцією активації останнього прихованого шару?
Джек Твен

2
Прогнозовані коефіцієнти журналу є лінійними як у і у . Але, як правило, нас найбільше цікавить той факт, що коефіцієнти журналу є лінійними в , оскільки це означає, що межа рішення є лінійною у просторі . θ^xθ^xxx
Стефан Вагер

3
Я використовував визначення, що класифікатор лінійний, якщо межа його рішення лінійна в просторі . Це не те саме, що прогнозовані ймовірності є лінійними в (що було б неможливо, окрім тривіальних випадків, оскільки ймовірності повинні лежати між 0 і 1). xx
Стефан Вагер

3
@ Pegah Я знаю, що це старе, але: Логістична регресія має лінійну межу рішення. Сам уптут, звичайно, не лінійний, його логістичний. Залежно від того, на яку сторону лінії падає точка, загальний вихід буде наближатися (але ніколи не досягати) 0 або 1 відповідно. І щоб додати відповідь Стефана Вагнерса: Останнє речення не є абсолютно правильним, нейронна мережа є нелінійною, коли містить нелінійні активації або вихідні функції. Але це може бути і лінійним (у разі, якщо нелінійності не додано).
Кріс

20

Як зазначає Стефан Вагнер, межа рішення для логістичного класифікатора є лінійною. (Класифікатору потрібні вхідні дані лінійно відокремлювані.) Я хотів розширити математику для цього, якщо це не очевидно.

Межею рішення є безліч x таких, що

11+eθx=0.5

Трохи алгебри видно, що це еквівалентно

1=eθx

і, беручи природний журнал обох сторін,

0=θx=i=0nθixi

тому межа рішення лінійна.

Причина межі прийняття рішення для нейронної мережі не є лінійною в тому, що в нейронній мережі є два шари сигмоподібних функцій: по одному у кожному з вихідних вузлів плюс додаткова сигмоподібна функція для об'єднання та порозуміння результатів кожного вихідного вузла.


2
Власне, ви можете отримати нелінійну межу рішення лише з одним шаром, що має активацію. Дивіться стандартний приклад XOR з двошаровою мережею передачі вперед.
Джеймс Гіршорн

5

У нас є два класи, і , тоді ми можемо виразити умовну ймовірність як застосовуючи теорему Байєса, знаменник виражається як .C0C1

P(C0|x)=P(x|C0)P(C0)P(x)
P(C0|x)=P(x|C0)P(C0)P(x|C0)P(C0)+P(x|C1)P(C1)=11+exp(logP(x|C0)P(x|C1)logP(C0)P(C1))
1+eωx

За яких умов зводить перший вираз до лінійного члена ?. Якщо розглянути експоненціальне сімейство (канонічну форму для експоненціальних розподілів, таких як Гаус чи Пуассон), тоді ви отримуєте лінійну форму,

P(x|Ci)=exp(θixb(θi)a(ϕ)+c(x,ϕ))
logP(x|C0)P(x|C1)=[(θ0θ1)xb(θ0)+b(θ1)]/a(ϕ)

Зверніть увагу, що ми припускаємо, що обидва розподіли належать до однієї сім'ї та мають однакові параметри дисперсії. Але, за цим припущенням, логістична регресія може моделювати ймовірності для всієї родини експоненціальних розподілів.

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.