Як провідний розробник Optunity я додам свої два центи.
Ми зробили широкі орієнтири, порівнюючи Optimum з найпопулярнішими байєсівськими вирішувачами (наприклад, гіперпептиком, SMAC, байесоптом) щодо реальних проблем, і результати показують, що PSO насправді не менш ефективний у багатьох практичних випадках. У нашому орієнтирі, який складається з настройки класифікаторів SVM на різних наборах даних, Optunity насправді є більш ефективним, ніж hyperopt і SMAC, але трохи менш ефективний, ніж BayesOpt. Я хотів би поділитися результатами тут, але я буду чекати, коли Optimum нарешті буде опублікований в JMLR (переглядається вже більше року, тому не затримуйте дихання ...).
Як ви вказуєте, підвищена ефективність є часто використовуваною точкою продажу для байєсівської оптимізації, але на практиці вона тримає воду лише в тому випадку, якщо припущення базових сурогатних моделей виконують, що далеко не банально. У наших експериментах дуже простий вирішувач PSO Optimum часто конкурує зі складними байєсівськими підходами за кількістю оцінок функцій. Байєсівські розв'язувачі працюють дуже добре, якщо вони забезпечені добрими пріорами, але з неінформативним попередженням практично немає структурної вигоди від метагевристичних методів, таких як PSO, з точки зору ефективності.
Великою точкою продажу для PSO є той факт, що вона наполегливо паралельна. Байєсівську оптимізацію часто важко паралелізувати через суттєво послідовний характер (реалізація hiperopt є єдиним реальним винятком). Надаючи можливості для розповсюдження, що стає нормою, Optunity швидко переймає лідируючі позиції у настінні годинники для отримання хороших рішень.
Ще одна ключова відмінність Optimum від більшості інших виділених бібліотек для оптимізації гіперпараметрів - цільова аудиторія: Optunity має найпростіший інтерфейс і орієнтований на експертів, які не вивчають машинного навчання, тоді як для більшості інших бібліотек потрібне певне розуміння байєсівської оптимізації для ефективного використання (тобто вони є орієнтовані на спеціалістів).
Причиною, яку ми створили в бібліотеці, є те, що, незважаючи на те, що існують спеціальні методи оптимізації гіперпараметрів, вони не мають практичного застосування. Більшість людей досі або взагалі не налаштовують, роблять це вручну, або за допомогою наївних підходів, таких як сітка або випадковий пошук. На нашу думку, ключовою причиною цього є той факт, що існуючі бібліотеки до розробки Optunity були надто важкими для використання з точки зору встановлення, документації, API та часто обмежувались одним середовищем.