У Глубокому навчанні з Python Франсуа Шолле сказано:
Як результат, налаштування конфігурації моделі на основі її продуктивності на наборі валідації може швидко призвести до надмірного пристосування до набору перевірок, навіть якщо ваша модель ніколи безпосередньо на ній не навчається.
Центральним у цьому явищі є поняття протікання інформації. Кожен раз, коли ви налаштовуєте гіперпараметр своєї моделі на основі продуктивності моделі на наборі перевірки, деяка інформація про дані перевірки просочується в модель . Якщо ви зробите це лише один раз для одного параметра, то буде витікати дуже мало бітів інформації , і ваш набір перевірки залишиться надійним для оцінки моделі. Але якщо ви повторите це багато разів - запустивши один експеримент, оцінюючи набір перевірки та змінивши модель в результаті - тоді ви просочите все більшу кількість інформації про перевірку, встановлену в моделі.
Чому інформація про дані перевірки просочується, якщо я оцінюю ефективність моделі на даних валідації під час налаштування гіперпараметрів?