Мені було цікаво, чи можна тренувати SVM (скажімо, лінійний, щоб полегшити справи) за допомогою зворотного розповсюдження?
Наразі я перебуваю на дорозі, тому що можу думати лише про те, як записати вихід класифікатора як
Отже, коли ми спробуємо обчислити "пропуск назад" (поширювана помилка), отримаємо , так якпохіднаSGn(х)є дSGN(х)
Аналогічно, ми знаходимо, що , а це означає, що ми не можемо передавати назад будь-яку інформацію або проводити оновлення градієнта!
Що дає?