Ні в якому разі, всі моделі ML не стосуються феноменального розуміння, це методи інтерполяції з надією "що це працює". Почніть з таких питань впевненості, надійних шумів немає відповідей.
Отже, щоб отримати щось, будь ласка, використовуйте різні прикладні та фундаментальні науки:
Використовуйте контроль (і зробіть припущення про динаміку)
Використовувати опуклу оптимізацію (з деякою додатковою умовою функціонування)
Використовуйте математичну статистику (з попередніми припущеннями щодо розподілу)
Використовуйте обробку сигналів (з деякими припущеннями, що сигнал обмежений)
Вчений використовує деякі попередні припущення (їх називають аксіомами), щоб щось вивести.
Немає ніякої впевненості без попереднього припущення, тому проблема не в DL-мехтоді, але це проблема в будь-якому методі, який намагаються інтерполювати без будь-якого попереднього припущення - немає ніякого способу отримати через алгебру щось інтелектуально без припущення.
NN і різні методи ML призначені для швидкого прототипування, щоб створити "щось", яке, здається, працює "якось", перевірено з перехресною валідацією.
Ще глибша регресія, що відповідає Е [Y | X], або її оцінка може бути абсолютно невірною проблемою для вирішення (можливо, pdf у точці Y = E [Y | X] має мінімум, а не максимум), і таких дуже тонких дуже багато речі.
Також дозвольте нагадати дві нерозв’язні проблеми в AI / ML, про які можна з якихось причин забути, за лозунгами краси:
(1) Це методи інтерполяції, а не екстраполяція - вона не має можливості вирішувати нові проблеми
(2) ніхто не знає, як буде поводитися будь-яка модель за даними, які не з того самого розповсюдження (людина в костюмі банана для локалізації пішоходів)