Я знаю, що при логістичній регресії виявляється гіперплан, який розділяє навчальні зразки. Я також знаю, що векторні машини підтримки знаходять гіперплан з максимальним запасом.
Моє запитання: чи різниця між логістичною регресією (LR) та машинами підтримки вектора (SVM) полягає в тому, що LR виявляє будь-яку гіперплану, яка розділяє навчальні зразки, тоді як SVM знаходить гіперплан з максимальним запасом? Або я помиляюся?
Примітка: нагадаємо, що в LR при тоді логістична функція дає 0,5 . Якщо прийняти 0,5 як поріг класифікації, то θ ⋅ x = 0 - це гіперплан або межа рішення.