Ось одна з причин того, що подвійна рецептура є привабливою з точки зору чисельної оптимізації. Деталі ви можете знайти в наступному документі :
Hsieh, C.-J., Chang, K.-W., Lin, C.-J., Keerthi, SS, and Sundararajan, S., "Метод подвійного координатного спуску для великих масштабних лінійних SVM", Праці 25-та міжнародна конференція з машинного навчання, Гельсінкі, 2008 р.
Подвійна формулювання передбачає єдине афінне обмеження рівності та n обмежених обмежень.
1. Обмеження афінної рівності можна "усунути" з подвійної рецептури.
Це можна зробити, просто переглянувши ваші дані в R ^ (d + 1) шляхом вбудовування R ^ d в R ^ (d + 1), що є результатом додавання єдиної координати «1» до кожної точки даних, тобто R ^ d ----> R ^ (d + 1): (a1, ..., ad) | ---> (a1, ..., ad, 1).
Здійснюючи це для всіх точок навчального набору, переглядається задача лінійної відокремленості в R ^ (d + 1) і виключається постійний член w0 з вашого класифікатора, що, в свою чергу, виключає афінне обмеження рівності з подвійного.
2. У пункті 1 подвійне може бути легко представлено як випукла квадратична задача оптимізації, обмеження яких є лише обмеженими обмеженнями.
3. Подвійну задачу тепер можна вирішити ефективно, тобто за допомогою алгоритму подвійного координатного спуску, який дає оптимальне для епсилону рішення в O (log (1 / epsilon)).
Це робиться, зазначаючи, що виправлення всіх альфа, крім одного, дає рішення закритої форми. Потім ви можете переходити по всіх альфах по черзі (наприклад, вибір навмання, виправлення всіх інших альфа, обчислення рішення закритої форми). Можна показати, що таким чином ви отримаєте майже оптимальне рішення «досить швидко» (див. Теорему 1 у вищезгаданій роботі).
Існує багато інших причин, чому подвійна проблема є привабливою з точки зору оптимізації, деякі з яких використовують той факт, що вона має лише одне афінне обмеження рівності (всі інші залишки є обмеженими обмеженнями), а інші використовують спостереження, яке є у вирішенні подвійної задачі "часто більшість альфа" дорівнює нулю (ненульові альфа-відповідні вектори підтримки).
Ви можете отримати хороший огляд міркувань щодо чисельної оптимізації для SVM з презентації Стівена Райт на семінарі з обчислювального навчання (2009).
PS: Я тут новий. Вибачте за те, що не використовуєте математичні позначення на цьому веб-сайті.