Перше, що обчислюється, є вичерпним. Звичайні процесори вимагають багато часу для виконання навіть базових обчислень / тренувань за допомогою Deep Learning. Однак рекомендується використовувати графічні процесори, навіть у багатьох ситуаціях їх може бути недостатньо. Типові моделі глибокого навчання не підтримують теоретичний час перебування в поліномах. Однак якщо ми подивимось на порівняно простіші моделі в ML для одних і тих же завдань, занадто часто ми маємо математичні гарантії, що час навчання, необхідний для таких більш простих алгоритмів, є у поліномах. Це, принаймні, для мене, мабуть, найбільша різниця.
Однак є рішення, як вирішити цю проблему. Одним із головних підходів є оптимізація алгоритмів DL лише для декількох ітерацій (замість того, щоб переглядати глобальні рішення на практиці, просто оптимізувати алгоритм до хорошого локального рішення, тоді як критерій "Добрий" визначається користувачем).
Іншим питанням, яке може бути трохи суперечливим для молодих любителів глибокого навчання, є те, що алгоритми глибокого навчання не мають теоретичного розуміння та міркувань. Глибокі нейронні мережі були успішно використані у багатьох ситуаціях, включаючи розпізнавання рукописного тексту, обробку зображень, самостійне керування автомобілями, обробку сигналів, NLP та біомедичний аналіз. У деяких із цих випадків вони навіть перевершили людей. Однак, якщо говорити, вони ні в якому разі не теоретично такі здорові, як більшість статистичних методів.
Я не буду вникати в деталі, скоріше залишаю це вам. Існують плюси і мінуси кожного алгоритму / методології, і DL не є винятком. Це дуже корисно, як це було доведено у багатьох ситуаціях, і кожен молодий науковець повинен вивчити хоча б основи DL. Однак у випадку відносно простих проблем краще використовувати відомі статистичні методи, оскільки вони мають багато теоретичних результатів / гарантій на їх підтримку. Крім того, з точки зору навчання, завжди краще почати з простих підходів і опанувати їх спочатку.