Тест: Повідомте класифікатора за його межею рішення


17

Нижче наведено 6 меж рішення. Межі рішення - фіолетові лінії. Точки та хрестики - це два різних набори даних. Ми повинні вирішити, який з них:

  • Лінійний SVM
  • Кернелізоване SVM (Поліномне ядро ​​порядку 2)
  • Перцепрон
  • Логістична регресія
  • Нейронна мережа (1 прихований шар з 10 випрямленими лінійними одиницями)
  • Нейронна мережа (1 прихований шар з 10 танних одиниць)

Я хотів би мати рішення. Але ще важливіше - зрозуміти відмінності. Наприклад, я б сказав, в) є лінійною SVM. Межа рішення лінійна. Але також ми можемо гомогенізувати координати лінійної межі рішення SVM. г) Кернелізований SVM, оскільки це поліноміальний порядок 2. f) випрямлена Нейронна мережа за рахунок "шорстких" ребер. Можливо, а) логістична регресія: це також лінійний класифікатор, але заснований на ймовірності.

Межі рішення


1
Додайте [self-study]тег і прочитайте його вікі . Ми надамо підказки, які допоможуть вам відклеїтись.
gung - Відновити Моніку

Але я не повинен вправлятись. Я читаю пост самонавчання, але вважаю, що моя публікація нормальна? Я включив власну думку, і я теж думав про це. Я думаю, може, цей приклад цікавий і для інших.
Miau Piau

1
Дякуємо, що додали тег. Це не повинно бути вправою, щоб застосовувати нашу політику. Це гарне запитання; Я підтримав це і не проголосував, щоб закрити.
gung - Відновіть Моніку

1
Це може допомогти пояснити, що показують сюжети. Я думаю, що точки - це два набори даних, які використовуються для тренувань, а лінія є межею між областями, де нова точка буде класифікована на ту чи іншу групу. Це так?
Енді Кліфтон

1
Це, мабуть, найкраще питання, яке я бачив на будь-якій раді Stackoverflow / Stackexchange за останні 5 років. Дивовижно, що на Stackoverflow є жокеї з кодом Javascript, які закрили б це запитання як "занадто широке".
stackoverflowuser2010

Відповіді:


9

Дуже подобається це питання!

Перше, що спадає на думку, - це поділ між лінійними та нелінійними класифікаторами. Три класифікатори є лінійними (лінійна svm, перцептрон і логістична регресія), а три графіки показують лінійну межу рішення ( A , B , C ). Тож давайте почнемо з цих.

Лінійний

Найбільш хиткою лінійною ділянкою є ділянка B, оскільки вона має лінію зі схилом. Це не дивно для логістичної регресії та svm, оскільки вони можуть покращити свої функції втрат, будучи плоскою лінією (тобто віддаляючись від (усіх) точок). Таким чином, сюжет В - перцептрон. Оскільки перцептрон є 0 або 1, всі рішення, які відокремлюють один клас від іншого, однаково хороші. Ось чому це більше не вдосконалюється.

Різниця між графіком _A) і C більш тонка. Кордон рішення трохи нижче в ділянці А . SVM як фіксована кількість векторів підтримки, тоді як функція втрат логістичної регресії визначається всіма точками. Оскільки червоних хрестів більше, ніж синіх крапок, логістична регресія уникає червоних хрестів більше, ніж синіх крапок. Лінійний SVM просто намагається бути якнайдалі від червоних опорних векторів, ніж від синіх опорних векторів. Ось чому графік А є межею рішення логістичної регресії, а графік С проводиться за допомогою лінійної SVM.

Нелінійний

Давайте продовжимо з нелінійними графіками та класифікаторами. Я погоджуюся з вашим зауваженням, що сюжет F - це, мабуть, ReLu NN, оскільки він має найгостріші межі. Блок ReLu, оскільки активується одразу, якщо активація перевищує 0, і це призводить до того, що вихідний блок слідує за іншою лінійною лінією. Якщо ви виглядаєте по-справжньому, дуже добре, ви можете помітити приблизно 8 змін напрямку в лінії, тому, ймовірно, 2 одиниці мало впливають на кінцевий результат. Отже, сюжет F - це ReLu NN.

Щодо двох останніх я не такий впевнений. І tanh NN, і поліном ядра SVN можуть мати декілька меж. Ділянка D очевидно класифікується гірше. Тен-НН може покращити цю ситуацію, вигнувши криві по-різному і поставивши більше синіх або червоних точок у зовнішній області. Однак цей сюжет начебто дивний. Я думаю, що ліва верхня частина класифікується як червона, а права нижня частина - як синя. Але як класифікується середня частина? Він повинен бути червоним або синім, але тоді одна з меж рішення не повинна бути намальована. Таким чином, єдиний можливий варіант - зовнішні частини класифікувати як один колір, а внутрішні - як інші. Це дивно і насправді погано. Тож я не впевнений у цьому.

Давайте подивимося на сюжет Е . Він має як вигнуті, так і прямі. Для Кернелізованого SVM ступеня 2 важко (близько до неможливого) мати пряму межу рішення прямої лінії, оскільки відстань у квадраті поступово віддає перевагу 1 з 2 класів. Функції активації tanh, що наближаються, можуть насичуватися таким чином, що прихований стан складається з 0 та 1. У тому випадку лише 1 одиниця змінює свій стан, щоб сказати .5, ви можете отримати лінійну межу рішення. Отже, я б сказав, що сюжет E - це ТНТ, і, таким чином, ділянка D є ядерним SVM. До поганого старого бідного SVM, хоча.

Висновки

А - Логістична регресія
В - Перцептрон
C - Лінійна SVM
D - Кернелізована SVM (Поліноміальне ядро ​​порядку 2)
E - Нейронна мережа (1 прихований шар з 10 одиницями tanh)
F - Нейронна мережа (1 прихований шар з 10 випрямленими лінійними одиницями)


Дякую за дуже гарну відповідь. Мені також подобається питання. Це дає нову перспективу класифікаторам. SVM має максимальний запас, тому має сенс, що рядок знаходиться в середині даних. Але чому це справедливо і для логістичної регресії?
Miau Piau

Ти маєш на увазі, чому це прямо? Або чому це посередині?
Пітер

Ви кажете, "вони можуть більше покращити свої функції втрат, будучи плоскою лінією" - чому це для логістичної регресії?
Miau Piau

1
Теоретично це найкраще рішення, оскільки похила лінія зменшить правильну ймовірність більш близького класу швидше, ніж збільшує ймовірність віддаленого класу.
Пітер
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.