Підтримка векторних машин та регресії


26

Вже пройшла чудова дискусія щодо того, як вектори підтримки підтримують класифікацію, але я дуже розгублений, як підтримуючі векторні машини узагальнюються до регресії.

Хтось дбає просвітити мене?

Відповіді:


17

В основному вони узагальнюються однаково. Підхід до регресії на основі ядра полягає в тому, щоб перетворити функцію, викликати її в деякий векторний простір, а потім виконати лінійну регресію в цьому векторному просторі. Щоб уникнути "прокляття розмірності", лінійна регресія в перетвореному просторі дещо відрізняється, ніж звичайні найменші квадрати. Підсумком є ​​те, що регресія в трансформованому просторі може бути виражена як , де це спостереження з навчального набору, - це перетворення, застосоване до даних, а крапка - це крапковий добуток. Таким чином, лінійну регресію "підтримують" декілька (бажано, дуже невелика кількість) навчальних векторів. х(х)=iшiϕ(хi)ϕ(х)хiϕ()

Усі математичні деталі приховані в дивному регресії, здійсненому в трансформованому просторі ("епсилон-нечутлива трубка" або будь-якому іншому) та виборі перетворення, . Для практикуючого також є питання декількох вільних параметрів (як правило, у визначенні та регресії), а також ознайомлення , де зазвичай корисне знання домену.ϕϕ


З точки зору інтуїції, чи це майже як однокласна класифікація, де лінія "межа" класу закінчується через точки, а не між точками двох класів?
Уейн

@Wayne, це моє розуміння, так. Я не на 100%, однак.
Зак

5

Для огляду SVM: як працює векторна машина підтримки (SVM)?

Щодо вектора регресії підтримки (SVR), я вважаю ці слайди з http://cs.adelaide.edu.au/~chhshen/teaching/ML_SVR.pdf ( дзеркало ) дуже чіткими:

введіть тут опис зображення

введіть тут опис зображеннявведіть тут опис зображення

введіть тут опис зображення

введіть тут опис зображення

введіть тут опис зображення

введіть тут опис зображення

введіть тут опис зображення

введіть тут опис зображення

Документація Matlab також має гідне пояснення і додатково переходить алгоритм вирішення оптимізації: https://www.mathworks.com/help/stats/understanding-support-vector-machine-regression.html ( дзеркало ).

Поки що ця відповідь представила так звану епсилон-нечутливу регресію SVM (ε-SVM). Існує більш новий варіант SVM для будь-якої класифікації регресії: Найменші квадрати підтримують векторну машину .

Крім того, SVR може бути розширений на багатовихідний ака-багатоцільовий, наприклад див. {1}.


Список літератури:

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.