(Ви можете спочатку переглянути "таблицю" нижче)
Почнемо з "класичних" машин підтримки вектора. Вони вчаться розрізняти дві категорії. Ви збираєте кілька прикладів категорії A, деякі категорії B і передаєте їх як алгоритму навчання SVM, який знаходить лінію / площину / гіперплан, який найкраще відокремлює A від B. Це працює - і це часто працює досить добре - коли Ви хочете розрізняти чітко визначені та взаємовиключні класи: чоловіки проти жінок, літери алфавіту тощо.
Однак припустимо, ви хочете замість цього визначити "A". Ви можете трактувати це як проблему класифікації: Як я відрізняю "A" s від "not-A" s. Досить легко зібрати навчальний набір, що складається з фотографій собак, але що має входити у ваш навчальний набір не-собак? Оскільки існує нескінченна кількість речей, які не є собаками, можливо, вам буде важко побудувати всебічний і все-таки репрезентативний навчальний набір для всіх не собачих речей. Натомість можна подумати про використання однокласного класифікатора. Традиційний, двокласовий класифікатор знаходить (гіпер) площину, яка відокремлює A від B. Однокласний SVM натомість знаходить лінію / площину / гіперплощину, яка відокремлює всі точки класу («A» s) від початку ;
Ансамблева SVM «система» - це насправді сукупність багатьох двокласних «підрозділів» SVM. Кожна субодиниця навчається за допомогою одиничноїпозитивний приклад для одного класу та величезна колекція негативних прикладів для іншого. Таким чином, замість розмежування прикладів собак проти несобакових (стандартний двокласний SVM) або собак проти походження (однокласний SVM), кожна підрозділка розмежовує між конкретними собаками (наприклад, "Rex") та багатьма не собаками приклади. Індивідуальні субодиниці SVM навчаються для кожного прикладу позитивного класу, тож у вас був би один SVM для Рекса, інший для Fido, ще один для собаки вашого сусіда, який гавкає о 6 ранку тощо. Виходи цих підрозділів SVM відкалібровані та об'єднані для визначення того, чи з'являється собака, а не лише один із конкретних примірників, у даних тесту. Я думаю, ви також могли б подумати про окремі підрозділи як дещо схожі на однокласні SVM, де простір координат зміщений так, що єдиний позитивний приклад лежить у початку.
Підсумовуючи ключові відмінності:
Дані про навчання
- Двокласний SVM: позитивні та негативні приклади
- Один клас SVM: лише позитивні приклади
- Ансамбль SVM "система": позитивні та негативні приклади. Кожна субодиниця навчається на одному позитивному прикладі та безлічі негативних прикладів.
Кількість машин
- Двокласний SVM: один
- Один клас SVM: один
- Ансамбль SVM "система": багато (одна субодиниця на позитивному прикладі)
Приклади для класу (на машині)
- Двокласний SVM: багато / багато
- SVM для одного класу: багато / один (зафіксовано у початку)
- Ансамбль SVM "система": багато / багато
- Ансамбль SVM "субодиниця": один / багато
Подальша обробка
- Двокласний SVM: Не потрібно
- SVM для одного класу: Не потрібно
- Ансамбль SVM: Потрібно для злиття кожного виходу SVM в передбачення на рівні класу.
Постскрипт: Ви запитували, що вони означають під "[іншими підходами] вимагають відображення зразків у загальний простір функцій, над яким можна обчислити ядро подібності". Я думаю, що вони означають, що традиційний двокласний SVM працює за умови, що всі члени класу якимось схожими, і тому ви хочете знайти ядро, яке розміщує великі данини та такси поруч один з одним, але далеко від усього іншого. На противагу цьому, ансамбль системи SVM йде в сторону цього, називаючи щось собакою, якщо це досить великий датський АБО таксі, подібний АБО до пуделя, не турбуючись про стосунки між цими примірниками.