Я використовую нейронні мережі для більшості проблем. Справа в тому, що це в більшості випадків більше про досвід користувача, ніж про модель. Ось кілька причин, чому мені подобаються сімейні мережі.
- Вони гнучкі. Я можу кинути будь-яку втрату, яку хочу на них: втрата шарніру, квадрат, перехресна ентропія, ти це називаєш. Поки вона відрізняється, я можу навіть спроектувати втрати, які точно відповідають моїм потребам.
- Їх можна лікувати ймовірнісно: Байєсові нейронні мережі, варіативні Байєси, MLE / MAP, все є. (Але в деяких випадках складніше.)
- Вони швидкі. Більшість MLP матимуть два матричних множення та один нелінійний застосований компонент з проміжком між ними. Побийте це SVM.
Я перегляну ваші інші пункти крок за кроком.
Майте сильну теорію заснування
Я б сказав, що національні мережі однаково сильні в цьому випадку: оскільки ви навчаєте їх у ймовірнісних рамках. Це робить можливим використання пріорів та байєсівського лікування (наприклад, з варіаційними методами чи наближеннями).
Досягти глобального оптимуму завдяки квадратичному програмуванню
Для одного набору гіперпараметрів. Однак пошук хороших hps не випуклий, і ви не дізнаєтесь, чи знайшли ви також глобальний оптимум.
Немає проблем з вибором належної кількості параметрів
З SVM, ви також повинні вибрати гіпер параметри.
Для зберігання прогнозної моделі потрібно менше пам'яті
Вам потрібно зберігати вектори підтримки. Загалом, SVM не будуть дешевшими для зберігання MLP, це залежить від конкретного випадку.
Виходять більш читабельні результати та геометрична інтерпретація
Верхній шар MLP - це логістична регресія у випадку класифікації. Таким чином, існує геометрична інтерпретація (розділяє гіпер площину) і ймовірнісна інтерпретація.