Коротше кажучи: максимізація запасу в цілому можна розглядати як регуляризацію рішення шляхом мінімізації (що по суті мінімізує складність моделі), це робиться як в класифікації, так і в регресії. Але у випадку класифікації ця мінімізація робиться за умови, що всі приклади класифіковані правильно, а у випадку регресії за умови, що значення y усіх прикладів відхиляється менше, ніж потрібна точність ϵ від f ( x ) для регресії.wyϵf( х )
Щоб зрозуміти, як переходити від класифікації до регресії, допомагає побачити, як в обох випадках застосовується одна і та ж теорія SVM, щоб сформулювати проблему як проблему опуклої оптимізації. Я спробую поставити обидва боки.
(Я проігнорую слабкі змінні, які дозволяють помилково класифікувати та відхилення вище точності )ϵ
Класифікація
У цьому випадку метою є знайти функцію де f ( x ) ≥ 1 для позитивних прикладів і f ( x ) ≤ - 1f( x ) = w x + bf( x ) ≥ 1f( x ) ≤ - 1 для негативних прикладів. У цих умовах ми хочемо максимізувати маржу (відстань між 2 - червоними смугами) , який є не більше ніж зведення до мінімуму похідної .f'= ш
Інтуїція максимізації запасу полягає в тому, що це дасть нам унікальне рішення проблеми пошуку (тобто ми відкидаємо, наприклад, синю лінію), а також, що це рішення є найбільш загальним за цих умов, тобто діє як регуляризаціяf( х ) . Це можна зрозуміти, що навколо межі прийняття рішення (де перетинаються червоні та чорні лінії) класифікаційна невизначеність є найбільшою і вибір найнижчого значення для у цій області дасть найбільш загальне рішення.f( х )
Точки даних на двох червоних смугах є векторами опори в цьому випадку, вони відповідають ненульовим множникам Лагранжа рівності частини рівності умов нерівності іf( x ) ≥ 1f( x ) ≤ - 1
Регресія
f( x ) = w x + bf( х )ϵу( х )| у( х ) - f( х ) | ≤ ϵe p s i l o nf'( x ) = wшw = 0
| у- f( х ) | ≤ ϵ
Висновок
В обох випадках виникає така проблема:
хв 12ш2
За умови, що:
- Усі приклади класифіковані правильно (Класифікація)
- уϵf( х )