Існує маса способів упереджень та відхилень, які можна звести до мінімуму, і, незважаючи на популярні твердження, це не завжди компроміс.
Дві основні причини великої упередженості - недостатня ємність моделі та недостатність, оскільки навчальний етап був не завершеним. Наприклад, якщо у вас є дуже складна проблема для вирішення (наприклад, розпізнавання зображень), і ви використовуєте модель низької ємності (наприклад, лінійна регресія), ця модель буде мати великі ухили внаслідок того, що модель не зможе зрозуміти складність проблема.
Основна причина високої дисперсії - це накладання на тренувальний набір.
За словами, існують способи зменшити як ухил, так і дисперсію на моделі ML. Наприклад, найпростіший спосіб досягти цього - отримати більше даних (у деяких випадках навіть синтетичні дані допомагають).
Що ми, як правило, робимо на практиці:
По-перше, ми збільшуємо ємність моделі, щоб максимально зменшити розбіжність у навчальному наборі. Іншими словами, ми хочемо зробити модель надмірною (навіть досягти втрати 0 на навчальному наборі). Це робиться тому, що ми хочемо переконатися, що модель має здатність достатньо розуміти дані.
Тоді ми намагаємось зменшити упередженість . Це робиться через регуляризацію ( дострокова зупинка , норма штрафних санкцій , випадання тощо)