Все, що стосується Deep Learning (DL) та глибоких (er) мереж, здається "успішним", принаймні дуже швидко прогресує, і культивує віру в те, що AGI досягається. Це народна уява. DL - це надзвичайний інструмент для вирішення багатьох проблем, включаючи створення AGI. Однак цього недостатньо. Засіб - необхідний інгредієнт, але часто недостатній.
Провідні фігури в галузі шукають в іншому місці, щоб досягти успіху. Цей звіт / претензія збирає посилання на заяви Йошуа Бенджо , Янна Лекуна та Джеффа Хінтона . У звіті також пояснюється:
Основні слабкі сторони DL (як я їх бачу) полягають у: опорі на найпростіші можливі нейрони моделі («мультяшні», як їх називає LeCun); використання ідей зі статистичної механіки та статистики 19 століття, які є основою енергетичних функцій та методів вірогідності; і поєднання цих методів, таких як зворотний підйом та стохастичний градієнтний спуск, що призводить до дуже обмеженого режиму застосування (в режимі офлайн, в основному партійне, контрольоване навчання), що вимагає високо талановитих практиків (він же «Стохастичний випускник спуску»), великої кількості дорогих позначені навчальними даними та обчислювальною потужністю. Хоча це чудово для величезних компаній, які можуть заманювати або придбати талант і розгорнути необмежену кількість ресурсів для збору даних та розсипання їх, DL просто не є доступним і не корисним для більшості з нас.
Хоча цікаве та актуальне, подібне пояснення насправді не вирішує суть проблеми: чого не вистачає?
Питання здається широким, але це може бути через відсутність простої відповіді. Чи є спосіб уточнити, чого DL не вистачає для AGI?