Вапник-Червоненкис (КІ) -размерность формули для нейронних мереж в діапазоні від до , з в гіршому випадку, де являє собою число ребер і - кількість вузлів. Кількість навчальних зразків, необхідних для отримання надійної гарантії узагальнення, лінійна з розміром VC.
Це означає, що для мережі з мільярдами ребер, як і у випадку успішних моделей глибокого навчання, навчальному набору даних потрібні мільярди навчальних зразків у кращому випадку, до чотирикутників у гіршому випадку. Найбільший навчальний набір наразі налічує близько ста мільярдів зразків. Оскільки навчальних даних недостатньо, то моделі глибокого навчання навряд чи узагальнюють. Натомість вони переповнюють дані тренувань. Це означає, що моделі не будуть добре працювати на даних, відмінних від даних про навчання, що є небажаною властивістю для машинного навчання.
Зважаючи на неможливість глибокого навчання узагальнити, згідно з розмірним аналізом ВК, чому результати глибокого навчання настільки зашифровані? Просто наявність високої точності на якомусь наборі даних не означає дуже багато саме по собі. Чи є щось особливе в архітектурах глибокого навчання, що значно зменшує розмір VC?
Якщо ви не вважаєте, що аналіз розмірності ВК є релевантним, будь ласка, надайте докази / пояснення, що глибоке навчання є узагальнюючим та не є надмірним. Тобто це добре спогади І точність, або просто гарний відклик? 100% відкликання банально досягти, як і 100% точність. Отримати обох близько 100% дуже складно.
Як зворотний приклад, ось дані, що глибоке навчання є надмірним. Модернітську модель легко обдурити, оскільки вона містить детермінований / стохастичний шум. Дивіться наступне зображення для прикладу надягання.
Також див. Відповіді на це запитання нижчих позицій, щоб зрозуміти проблеми з моделлю набору, незважаючи на хорошу точність даних тесту.
Деякі відповіли, що регуляризація вирішує проблему великого розміру ВК. Дивіться це питання для подальшого обговорення.