Як підтримується векторна регресія інтуїтивно?


25

Усі приклади SVM пов'язані з класифікацією. Я не розумію, як SVM для регресії (вектор регресора підтримки) може бути використаний при регресії.

З мого розуміння, SVM максимально збільшує запас між двома класами, щоб знайти оптимальну гіперплану. Як це могло б працювати в регресійній проблемі?

Відповіді:


11

Коротше кажучи: максимізація запасу в цілому можна розглядати як регуляризацію рішення шляхом мінімізації (що по суті мінімізує складність моделі), це робиться як в класифікації, так і в регресії. Але у випадку класифікації ця мінімізація робиться за умови, що всі приклади класифіковані правильно, а у випадку регресії за умови, що значення y усіх прикладів відхиляється менше, ніж потрібна точність ϵ від f ( x ) для регресії.wyϵf(х)


Щоб зрозуміти, як переходити від класифікації до регресії, допомагає побачити, як в обох випадках застосовується одна і та ж теорія SVM, щоб сформулювати проблему як проблему опуклої оптимізації. Я спробую поставити обидва боки.

(Я проігнорую слабкі змінні, які дозволяють помилково класифікувати та відхилення вище точності )ϵ

Класифікація

У цьому випадку метою є знайти функцію де f ( x ) 1 для позитивних прикладів і f ( x ) - 1f(х)=шх+бf(х)1f(х)-1 для негативних прикладів. У цих умовах ми хочемо максимізувати маржу (відстань між 2 - червоними смугами) , який є не більше ніж зведення до мінімуму похідної .f'=ш

Інтуїція максимізації запасу полягає в тому, що це дасть нам унікальне рішення проблеми пошуку (тобто ми відкидаємо, наприклад, синю лінію), а також, що це рішення є найбільш загальним за цих умов, тобто діє як регуляризаціяf(х) . Це можна зрозуміти, що навколо межі прийняття рішення (де перетинаються червоні та чорні лінії) класифікаційна невизначеність є найбільшою і вибір найнижчого значення для у цій області дасть найбільш загальне рішення.f(х)

введіть тут опис зображення

Точки даних на двох червоних смугах є векторами опори в цьому випадку, вони відповідають ненульовим множникам Лагранжа рівності частини рівності умов нерівності іf(х)1f(х)-1

Регресія

f(х)=шх+бf(х)ϵу(х)|у(х)-f(х)|ϵеpсiлонf'(х)=шшш=0

введіть тут опис зображення

|у-f(х)|ϵ

Висновок

В обох випадках виникає така проблема:

хв12ш2

За умови, що:

  • Усі приклади класифіковані правильно (Класифікація)
  • уϵf(х)

0

У SVM для проблеми класифікації ми насправді намагаємось відокремити клас якомога далі від лінії, що розмежовується (Hyperplane), і на відміну від логістичної регресії ми створюємо межу безпеки з обох сторін гіперплощини (різниться між логістичною регресією та класифікацією SVM в їх функція втрат). Врешті-решт, маючи відокремлені різні точки даних, якнайдалі від гіперплану.

У SVM для проблеми регресії ми хочемо підходити до моделі, щоб передбачити кількість на майбутнє. Тому ми хочемо, щоб точка даних (спостереження) була максимально наближена до гіперплану на відміну від SVM для класифікації. Регресія SVM, успадкована від простої регресії типу (Звичайна найменша площа) за цією різницею, що ми визначаємо діапазон епсілонів з обох сторін гіперплощини, щоб зробити функцію регресії нечутливою до помилки на відміну від SVM для класифікації, що ми визначаємо межу безпечною для створення майбутнє рішення (прогнозування). Врешті-решт,

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.