Недостатньо визначені системи є лише невизначеними, якщо ви не встановлюєте жодних інших обмежень, крім даних. Дотримуючись вашого прикладу, встановлення полінома 4 градуси до 4 точок даних означає, що у вас є одна ступінь свободи, не обмежена даними, що залишає вам лінію (у просторі коефіцієнтів) однаково хороших рішень. Однак ви можете використовувати різні методи регуляризації, щоб зробити проблему відстежуючою. Наприклад, накладаючи штраф на норму L2 (тобто суму квадратів) коефіцієнтів, ви гарантуєте, що завжди знайдеться одне унікальне рішення з найвищою придатністю.
Методи регуляризації також існують для нейронних мереж, тому коротка відповідь на ваше запитання - «так, можна». Особливий інтерес представляє методика під назвою "випадання", в якій за кожне оновлення ваг ви випадково "скидаєте" певну підмножину вузлів з мережі. Тобто, для цієї конкретної ітерації алгоритму навчання ви робите вигляд, що ці вузли не існують. Без випадання мережа може вивчити дуже складні уявлення про вхід, які залежать від усіх вузлів, які працюють разом. Такі уявлення, швидше за все, «запам’ятовують» дані тренувань, а не знаходять узагальнені зразки. Випадання забезпечує те, що мережа не може використовувати всі вузли одразу для підгонки навчальних даних; він повинен вміти добре представляти дані, навіть якщо деякі вузли відсутні,
Також зауважте, що при використанні відсіву ступеня свободи в будь-якій точці під час тренінгу насправді може бути меншою, ніж кількість тренувальних зразків, хоча загалом ви навчаєтеся більше ваг, ніж тренувальних зразків.