Перехресна перевірка - це інструмент для оцінки дисперсії вашої метрики ефективності через випадковість даних (а може бути, в алгоритмі навчання, якщо це не детерміновано).
Тож якщо ви використовуєте лише один розвід, наприклад, 80% поїзд + 20% тесту і повідомляєте про показники ефективності цього експерименту, є великі шанси, що хтось, хто намагається відтворити ваш експеримент, використовуючи абсолютно однакові параметри, знайде інший показник ефективності (іноді дуже інший). Якщо, звичайно, ви не забезпечите той самий точний розкол, який безглуздо.
Щоб повернутися до свого питання, я думаю, що ви обов'язково повинні використовувати CV, щоб повідомити про свою ефективність (наприклад, зробіть резюме в 10 разів та повідомте про середнє та стандартне відхилення показника ефективності). Тепер для настройки алгоритму ви можете використовувати набагато менший набір перевірки, відібраний з навчального набору (переконайтесь, що він не включений до тестового набору).
Якщо ви боїтесь, що не знайдете найкращих гіперпараметрів за допомогою невеликого набору, то, ймовірно, ви переоснащуєте свій алгоритм специфікою набору даних. Якщо ви не можете знайти конфігурацію за допомогою невеликого зразка, який дає розумну продуктивність серед усіх складових, то алгоритм, мабуть, не дуже корисний на практиці.
Також майте на увазі, що деякі алгоритми просто занадто повільні / недостатньо масштабуються в деяких конфігураціях. Це також частина практичного вибору моделі.
Оскільки ви згадуєте SVM, звичайно, більшість реалізацій буде повільним при спробі пошуку параметрів для нелінійних ядер шляхом пошуку в сітці. Пошук сітки має експоненціальну складність, тому використовуйте його з дуже невеликими параметрами. Також майте на увазі, що більшість бібліотек надають розумні параметри за замовчуванням (або принаймні ви встановлюєте один параметр і є евристика для встановлення інших).