1
Одношаровий NeuralNetwork з активацією ReLU, рівним SVM?
Припустимо, я маю просту одношарову нейронну мережу з n входами та одним виходом (завдання бінарної класифікації). Якщо я встановив функцію активації у виходному вузлі як сигмоподібну функцію, то результат - класифікатор логістичної регресії. У цьому ж сценарії, якщо я зміню активацію виводу на ReLU (випрямлена лінійна одиниця), то отримана структура …