Здійснивши пошук сітки для кожної сурогатної моделі, ви можете та повинні перевірити кілька речей:
- зміна оптимізованих параметрів (тут і CγС ).
Чи стабільні оптимальні параметри? Якщо ні, то, швидше за все, у вас виникнуть проблеми.
- Порівняйте повідомлені показники внутрішньої та зовнішньої схрещування.
Якщо внутрішня (тобто настроювальна) перехресна перевірка виглядає набагато краще, ніж зовнішня (валідація кінцевої моделі), то ви також у біді: ви переозброюєте. Існує істотний ризик, що налаштовані параметри зовсім не є оптимальними. Однак якщо зовнішня перехресна перевірка виконана належним чином (усі тестові набори справді не залежать від відповідних сурогатних моделей), то принаймні у вас все ж є неупереджена (!) Оцінка продуктивності моделі. Але ви не можете бути впевнені, що це оптимально.
- Наскільки яскраво виражений оптимум? Чи швидко знижується продуктивність для неоптимальних параметрів? Наскільки хороші оптимальні показники?
Існує багато сказати про надмірну обробку за вибором моделі. Однак добре пам’ятати, що і варіативність, і оптимістичний ухил можуть насправді нашкодити
- дисперсія означає, що ви можете випадково опинитися досить далеко від справді оптимальних гіпер-параметрів.
- але також упередженість може нашкодити: якщо ви переобладнаєте, ви можете зіткнутися з ситуаціями, коли багато моделей ідеально підходять для внутрішньої перехресної перевірки (але насправді вони не є). У цьому випадку настройка може збитися з ладу, оскільки вона не розпізнає відмінності між моделями.
- Якщо упередженість залежить від гіпер-параметрів, у вас виникають великі проблеми.
Якщо вас цікавить приклад, і ви можете прочитати німецьку мову, я можу розмістити свою дипломну роботу в Інтернеті.
На мій досвід, налаштування гіперпараметрів - надзвичайно ефективна ідея для надмірного оснащення ...
Тепер, якщо ви розумієте, що переобладнаєте, у вас є переважно два варіанти:
- повідомляйте, що в оптимізації виникли проблеми із надлишковою обробкою, але ви виконали належну зовнішню перевірку, що призвело до ... (результати зовнішньої перехресної перевірки).
- обмежують складність моделі. Одним із способів цього є фіксація гіперпараметрів:
Як альтернатива налаштування гіпер-параметрів для кожного навчального набору, ви можете заздалегідь вказати (гіпер) параметри (тобто заздалегідь виправити їх). Я роблю це якомога більше для своїх моделей, оскільки у мене зазвичай навіть менше випадків, ніж у вас, див. Нижче.
Однак це виправлення потрібно реально і чесно зробити заздалегідь: наприклад, я попросив колегу про його оптимізовані параметри на подібному наборі даних (незалежний експеримент) або зробити попередній експеримент, включаючи пошук сітки за параметрами. Цей перший експеримент потім використовується для фіксації деяких експериментальних параметрів, а також параметрів моделі для реального експерименту та аналізу даних. Дивіться нижче для подальших роз'яснень.
Звичайно, можна провести належне тестування на автоматично оптимізованих моделях (подвійна або вкладена валідація), але розмір вибірки може не дозволяти розділяти дані вдвічі .
У цій ситуації IMHO набагато краще повідомити чесну оцінку для моделі, яка була побудована з використанням професійного досвіду щодо вибору параметрів моделювання, ніж повідомлення про надмірно оптимістичну оцінку на якійсь автоматизованій оптимізованій моделі.
Ще одна точка зору на ситуацію полягає в тому, що вам доведеться торгувати
- погіршення продуктивності за рахунок відміни ще однієї маси справ для оптимізації параметрів (менший розмір вибіркового тренінгу => гірша модель, але "оптимальні" параметри)
- погіршення продуктивності за рахунок неоптимальної фіксації параметрів експертом (але на більш великих даних про навчання).
Кілька подібних думок щодо подібного питання: /stats//a/27761/4598
Про фіксацію параметрів та коментарі Дікрана Марсупіала
Я використовую термін гіпер-параметри, оскільки Дікран Марсупіал використовує його у своїй роботі (посилання у його відповіді)
Я працюю зі спектроскопічними даними. Це свого роду вимірювання, коли аналіз даних та моделювання часто включає досить небагато попередньої обробки. Це можна розглядати як гіперпараметри (наприклад, який порядок полінома слід використовувати для базової лінії? Які канали вимірювання слід включити?). Є й інші рішення, ближчі до ваших параметрів svm, наприклад, скільки основних компонентів використовувати, якщо PCA зроблено для зменшення розмірності, перш ніж "справжня" модель буде навчена? І іноді я також використовую класифікацію SVM, тому мені доведеться визначитися з параметрами SVM.
Тепер, IMHO найкращий спосіб виправити гіпер-параметри - це якщо у вас є причини, які випливають із програми. Наприклад, я, як правило, вирішую, яку базову лінію використовувати з фізичних / хімічних / біологічних причин (тобто знання про зразок та спектроскопічну поведінку, що випливає з цього). Однак я не знаю такої аргументації, яка допомагає з параметрами SVM ...
Випадки попередніх експериментів, про які я згадував вище, виглядають так:
- ми беремо дані про купу клітинок (хочемо розрізнити різні лінії клітин).
Аналізуються спектри, виконується ітераційна подвійна перехресна перевірка SVM (проводилася ніч або дві на обчислювальному сервері).
- γС
- Я також зауважую певне перевищення: зовнішнє схрещування не настільки добре, як результати настройки. Це так, як очікувалося.
- Тим не менш, існують відмінності в продуктивності в діапазоні настройки гіпер-параметрів, а продуктивність по настроювальній сітці виглядає досить рівною. Добре.
Мій висновок такий: хоча я не можу бути впевненим, що кінцеві гіперпараметри оптимальні, зовнішня перехресна перевірка дає мені належну оцінку ефективності сурогатних моделей.
Під час експериментальної частини ми визначились із деякими змінами в експериментальній настройці (речі, які не впливають на сигнал до шуму даних, але йдуть на крок далі в автоматизації приладу)
Ми вдосконалюємо експериментальні установки та набуваємо нових спектрів. Як клітини, їх потрібно вирощувати свіжо. Тобто новий набір даних - це навіть незалежні партії культури.
Тепер я стикаюся з рішенням: чи варто "пропустити" внутрішню перехресну перевірку і просто перейти з гіпер-параметрами, які я визначив зі старими даними?
- Як було сказано вище, я ризикую, що ці заздалегідь визначені гіперпараметри не є оптимальними.
- Але я також не можу бути впевненим, щоб отримати справді оптимальні гіперпараметри, виконавши внутрішню (настроювальну) перехресну перевірку.
- Однак налаштування старих даних було стабільним.
- Здійснюючи оптимізацію, я буду тренуватись на менших зразках: Оскільки у мене все одно є занадто мало зразків (TM), я повинен очікувати отримання гірших моделей, якщо відкладу більше зразків для другого раунду перехресної перевірки.
Тож у такому випадку я вирішив перейти з фіксованими параметрами (на досвіді подібних даних і знаючи, що в майбутньому нам доведеться робити "домашнє завдання", включаючи, серед іншого, повторну перевірку цих рішень з великими даними).
Зауважте, що важливим є те, що я пропускаю внутрішнє ( налаштування крос-валідації), а не зовнішнє. При фіксованих гіпер-параметрах я отримую неупереджену оцінку ефективності можливо неоптимальної моделі. Це правда, що ця оцінка підлягає великій дисперсії, але ця дисперсія в основному однакова, я роблю внутрішню настройку чи ні.
Пропускаючи зовнішню перехресну оцінку, я отримав би оптимістично упереджену оцінку налаштованої моделі - яка залежно від програми та даних може бути нікчемною (якщо дуже сильно переоптимістичною) та оптимістичним ухилом може бути явно неприйнятною.