Я думаю, що відповідь тут така ж, як і всюди в науці даних: це залежить від даних :-)
Може статися, що один метод перевершує інший (тут https://arimo.com/data-science/2016/bayesian-optimization-hyperparameter-tuning/ люди порівнюють оптимізацію байєвських гіперпараметрів та досягають кращого результату в боротьбі зі злочинністю злочину в Сан-Франциско, ніж при випадковому пошуку), проте я сумніваюся, що для цього існує загальне правило. Ви можете побачити хороший gif тут ( http://blog.revolutionanalytics.com/2016/06/bayesian-optimization-of-machine-learning-models.html ), де люди показують "шлях", який баєсівська оптимізація проходить у ландшафті Гіперпараметри, зокрема, не здається, що це взагалі перевершує випадковий пошук ...
Я думаю, що причина, чому люди, як правило, використовують оптичну оптимізацію гіперпараметрів Байєса, полягає в тому, що вона просто проводить менше навчальних кроків, щоб досягти порівнянного результату порівняно зі випадковим пошуком із достатньо високою кількістю експериментів.
Підсумовуючи в одному реченні:
* Коли час тренінгу є критичним, використовуйте байєсівську оптимізацію гіперпараметрів, і якщо час не є проблемою, виберіть один з обох ... *
Зазвичай я лінуюся реалізовувати байєсівські речі з Гауссовими процесами, якщо я можу досягти такого ж результату випадковим пошуком ... Я просто треную ансамблі "Градієнт Бостінг" на "мало" даних, тому для мене час - це не проблема ...