Коротше кажучи, логістична регресія має ймовірнісні конотації, що виходять за рамки використання класифікатора в ML. У мене є деякі зауваження по логістичної регресії тут .
Гіпотеза при логістичній регресії забезпечує міру невизначеності виникнення бінарного результату на основі лінійної моделі. Вихід обмежений асимптотично між 0 і 1 і залежить від лінійної моделі, так що коли нижня лінія регресії має значення 0 , логічне рівняння дорівнює 0.5=e01+e0 , забезпечуючи природну точку відсічення для цілей класифікації. Однак ціною викидання інформації про ймовірність є фактичний результатh(ΘTx)=eΘTx1+eΘTx , що часто цікаво (наприклад, ймовірність виплати заборгованості за кредитом, дохід, кредитна оцінка, вік тощо).
Алгоритм класифікації перцептрона є більш базовою процедурою, що базується на крапкових продуктах між прикладами та вагами . Кожного разу, коли приклад неправильно класифікується, знак крапкового продукту суперечить значенню класифікації ( −1 і 1 ) у навчальному наборі. Щоб виправити це, приклад вектора буде ітераційно додаватися або відніматися з вектора ваг або коефіцієнтів, поступово оновлюючи його елементи:
Векторно, то функції або атрибути прикладу є х , і ідея полягає в тому, щоб «пройти» приклад , якщо:dx
або ...∑1dθixi>theshold
. Функція знаку призводить до 1 або - 1 , на відміну від 0 і 1 при логістичній регресії.h(x)=sign(∑1dθixi−theshold)1−101
Поріг буде поглинений у коефіцієнт зміщення . Формула тепер:+θ0
, або векторизований: h ( x ) = знак ( θ T x ) .h(x)=sign(∑0dθixi)h(x)=sign(θTx)
Різні класифіковані точки матимуть , що означає, що крапковий добуток Θ і x n буде позитивним (вектори в одному напрямку), коли y n від'ємний, або крапковий добуток буде негативним (вектори у протилежних напрямках), тоді як y n додатний.sign(θTx)≠ynΘxnynyn
Я працював над відмінностями цих двох методів у наборі даних від одного курсу , в якому результати тестування на двох окремих іспитах пов'язані з остаточним прийняттям до коледжу:
Межу прийняття рішення можна легко знайти при логістичній регресії, але було цікаво побачити, що хоча коефіцієнти, отримані з персептроном, значно відрізняються, ніж при логістичній регресії, просте застосування функції до результатів дало так само хорошу класифікацію алгоритм. Насправді максимальна точність (межа, встановлена лінійною нероздільністю деяких прикладів) була досягнута другою ітерацією. Ось послідовність прикордонних ліній ділення, оскільки 10 ітерацій наближено до ваг, починаючи від випадкового вектора коефіцієнтів:sign(⋅)10
Точність у класифікації як функція від кількості ітерацій швидко зростає та плато на , відповідно до того, наскільки швидко досягається гранично оптимальна межа рішення у відеокліпі вище. Ось сюжет кривої навчання:90%
Код, що використовується тут .