Різниця між логістичною регресією та підтримуючими векторними машинами?


14

Я знаю, що при логістичній регресії виявляється гіперплан, який розділяє навчальні зразки. Я також знаю, що векторні машини підтримки знаходять гіперплан з максимальним запасом.

Моє запитання: чи різниця між логістичною регресією (LR) та машинами підтримки вектора (SVM) полягає в тому, що LR виявляє будь-яку гіперплану, яка розділяє навчальні зразки, тоді як SVM знаходить гіперплан з максимальним запасом? Або я помиляюся?

Примітка: нагадаємо, що в LR при тоді логістична функція дає 0,5 . Якщо прийняти 0,5 як поріг класифікації, то θ x = 0 - це гіперплан або межа рішення.θх=00,50,5θх=0


Відповіді:


8

Ви маєте рацію, якщо ви говорите про жорсткий SVM, і два класи лінійно розділені. LR знаходить будь-яке рішення, яке розділяє два класи. Жорсткий SVM знаходить «рішення» серед усіх можливих, що мають максимальний запас.

Якщо м'який SVM і класи не є лінійно відокремленими, ви все ще маєте рацію з невеликою модифікацією. Помилка не може стати нульовою. LR знаходить гіперплан, який відповідає мінімізації деякої помилки. Soft SVM намагається мінімізувати помилку (іншу помилку) і одночасно виправляє цю помилку з запасом через параметр регуляризації.

Одна різниця між ними: SVM - жорсткий класифікатор, але LR - ймовірнісний. SVM рідкісний. Він вибирає вектори підтримки (з навчальних зразків), які мають найбільш дискримінаційну силу між двома класами. Оскільки інші навчальні бали не перевищують тестування в тестовий час, ми не маємо уявлення про розподіл будь-якого з двох класів.

Я пояснив, як LR-рішення (за допомогою IRLS) розбивається у випадку лінійно відокремленості двох класів і чому він перестає бути імовірнісним класифікатором у такому випадку: /stats//a/133292/66491


3
Які мінімум квадратів оптимізує логістична регресія? LR використовує перехресну ентропію як втрату.
Артем Соболєв

1
тільки тому, що в логістичній регресії використовується IRLS, це не означає, що це найменші квадрати - повторне зважування в IRLS є функцією поточної оцінки параметрів, завдяки чому оптимізована фактична функція сильно відрізняється від найменших квадратів.
Glen_b -Встановіть Моніку

підсумовуючи, SVM є вдосконаленим варіантом LR, оскільки він знаходить гіперплан з максимальним обмеженням, в той час як LR просто знаходить (як-небудь говорити випадковий?) гіперплан. Чи згодні ви з цим узагальненням?
LandonZeKepitelOfGreytBritn
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.