Я спробую відповісти на це питання поєднанням опублікованих доказів, особистого досвіду та міркувань.
А) Опубліковані докази.
Єдиний мені документ, який допомагає відповісти на питання, - це Delgado et al. 2014 - Чи потрібні сотні класифікаторів, щоб вирішити проблеми класифікації реального світу? - JMLR, який запускає сотні різних алгоритмів та реалізацій на 121 наборі даних UCI. Вони вважають, що хоча RBF SVM не є «найкращим» алгоритмом (це випадкові ліси, якщо я правильно пам’ятаю), він входить у топ-3 (або 5).
Якщо ви вважаєте, що їх вибір наборів даних є "хорошим зразком" проблем у реальному світі, то SVM, безумовно, є алгоритмом, який слід спробувати в нових проблемах, але спершу слід спробувати випадковий ліс!
Обмеження узагальнення цього результату полягає в тому, що набори даних майже всі високі та худі (n >> p), не дуже рідкі - що, як я припускаю, повинно бути більшою проблемою для РФ, і не дуже великою (і n, і p).
Нарешті, все-таки на опублікованих даних я рекомендую два сайти, які порівнюють різні реалізації випадкових лісів:
Б) Особистий досвід.
Я вважаю, що такі документи, як Delgado et all, дуже важливі для спільноти машинного навчання, тому я намагався повторити їх результати в деяких інших умовах. Я застосував 15 різних алгоритмів на 100+ бінарних наборах даних (із набору даних Delgado). Я також думаю, що я був більш обережним у підборі гіперпараметрів, ніж вони були.
Мої результати полягають у тому, що SVM був «найкращим алгоритмом» (середній ранг 4,9). Я вважаю, що SVM передав RF, тому що в початковому наборі даних було багато багатокласових проблем, про які я обговорюватиму в частині спекуляції - повинна бути проблемою для SVM.
EDIT (черв. / 16):
Але РФ - це набагато швидше, і це був другий найкращий алгоритм (середній ранг 5.6), за яким йдуть gbm (5.8), nnets (7.2) тощо). Я не пробував стандартної логістичної регресії у цих проблемах, але спробував еластичну сітку (L1 та L2, регульовану LR), але вона не спрацювала добре (середній ранг 8,3) ~
Я ще не закінчив аналізувати результати або писати папір, тому я навіть не можу вказати на технічний звіт з результатами. Сподіваюся, через кілька тижнів я можу змінити цю відповідь і вказати на технічний звіт з результатами.
Документ доступний за посиланням http://arxiv.org/abs/1606.00930 Виявляється, після повного аналізу РФ і SVM майже рівноцінні за очікуваною швидкістю помилок, і SVM є найшвидшим (на мій подив !!). Я більше не наголошую на тому, щоб рекомендувати РФ (на швидкості).
Тож мій особистий досвід полягає в тому, що хоча SVM може отримати вам додатковий біт точності, майже завжди кращим вибором є використання RF.
Також для великих проблем може бути неможливим використання пакетного розв'язувача SVM (я ніколи не використовував онлайн-розв'язувач SVM, такий як LASVM чи інші).
Нарешті, я застосував логістичну регресію лише в одній ситуації. Я робив певну «інтенсивну» інженерну функцію щодо проблеми класифікації зображень (наприклад, - поєднувати чи не два різних описи зображення та розмірність описів). І я використав логістичну регресію для вибору серед безлічі альтернатив (тому що в LR немає пошуку гіперпараметрів). Отримавши найкращі характеристики (згідно з LR), ми використали RF (вибравши найкращі гіперпараметри), щоб отримати остаточний класифікатор.
В) Спекуляція
Я ніколи серйозно не працював над проблемами багатокласовості, але моє відчуття, що SVM не так добре в них. Проблема полягає не в тому, що між рішеннями один-один-один або один-всі-всі, а в тому, що всі впровадження, які я знаю, будуть використовувати однакові гіперпараметри для всіх класифікаторів (OVO або OVA). Вибір правильних гіперпараметрів для SVM настільки дорогий, що жодна з найпоширеніших реалізацій, про які я знаю, не здійснить пошук для кожного класифікатора. Я припускаю, що це проблема для SVM (але не проблема для РФ !!).
Тоді знову за багатокласними проблемами я б поїхав прямо до РФ.