Застосування «хитрості ядра» до лінійних методів?


20

Трюк ядра використовується в декількох моделях машинного навчання (наприклад , SVM ). Вперше він був введений у статті "Теоретичні основи методу потенційної функції в навчанні розпізнавання образів" у 1964 році.

Визначення вікіпедії говорить, що це так

метод використання алгоритму лінійного класифікатора для вирішення нелінійної задачі шляхом відображення оригінальних нелінійних спостережень у просторі більш високого розміру, де згодом використовується лінійний класифікатор; це робить лінійну класифікацію в новому просторі еквівалентною нелінійній класифікації у вихідному просторі.

Одним із прикладів лінійної моделі, яка поширюється на нелінійні проблеми, є PCA ядра . Чи може трюк ядра застосувати до будь-якої лінійної моделі, чи має певні обмеження?


1
До речі, ядра не дуже важливі для SVM. "Серцем" SVM є принцип максимізації м'якої маржі. Перехід до представлення ядра робить вашу проблему розмірністю O (m ^ 2) замість O (d), де m - кількість прикладів, а d - розмірність простору вашої функції, тому, якщо m ^ 2 більше d, ви можете бути краще займатись ядрами jmlr.csail.mit.edu/papers/v6/keerthi05a.html
Ярослав Булатов

@Yaroslav: Дякую за довідку. Чи знаєте ви про будь-які реалізації цього "модифікованого методу кінцевих ньютонів"?
Шейн

ні, але на сторінках Кіерті та Ленгфорда є посилання на певне програмне забезпечення, яке може бути пов’язане, оскільки вони обидва працювали в Yahoo Research
Ярослав Булатов

Відповіді:


17

Хитрість ядра може застосовуватися лише до лінійних моделей, де приклади в формулюванні проблеми постають як крапкові продукти (Support Vector Machines, PCA тощо).


Дякую за відповідь. @mbq @ ebony1: ІМО нам потрібно докласти більше зусиль, щоб розмістити на сайті більш серйозні питання машинного навчання, щоб залучити більше спільноти.
Шейн

@Shane Я повністю погоджуюся, але як щодо інших сайтів SO, таких як metaoptimize.com/qa ?
chl

@chl: Це теж варіант, але він не є частиною StackExchange (він контролюється однією людиною та різним програмним забезпеченням), і я особисто вважаю за краще, щоб ці різні спільноти аналізу даних змішувалися в одному місці.
Шейн

@Shane Ну, добре, це має сенс.
chl

також є пропозиція щодо обміну стеками для
Ярослав Булатов


2

@ ebony1 дає ключовий момент (+1), я був співавтором статті, яка обговорювала, як кенелізувати узагальнені лінійні моделі, наприклад, логістична регресія та пуассонова регресія, це досить просто.

GC Cawley, GJ Janacek та NLC Talbot, Узагальнені машини ядра, в матеріалах Міжнародної спільної конференції IEEE / INNS з нейронних мереж (IJCNN-2007), сторінки 1732-1737, Орландо, штат Флорида, США, 12-17 серпня 2007 року. ( www , pdf )

Я також написав (якість дослідження) інструментарій MATLAB (на жаль, ніяких інструкцій), який ви можете знайти тут .

Можливість моделювання розподілу цілей є досить корисною для кількісної оцінки невизначеності тощо, тому є корисним (якщо досить інкрементальним) доповненням до методів навчання ядра.

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.