У наш час штучний інтелект здається майже рівним машинному навчанню, особливо глибокому навчанню. Деякі кажуть, що глибоке навчання замінить людських експертів, традиційно дуже важливих для інженерних технологій, у цій галузі. Кажуть, що два прориви підкріпили підйом глибокого навчання: з одного боку, нейронаука та нейропластичністьзокрема, говорить нам, що подібно до людського мозку, який має високу пластичність, штучні мережі можна використовувати для моделювання майже всіх функцій; з іншого боку, збільшення обчислювальної потужності, зокрема впровадження GPU та FPGA, чудово розширило алгоритмічний інтелект і зробило моделі, створені десятиліттями тому, надзвичайно потужними та універсальними. Додам, що великі дані (в основному мічені дані), накопичені за останні роки, також є актуальними.
Такі розробки приносять комп'ютерне бачення (і розпізнавання голосу) у нову епоху, але в системах обробки природних мов та експертних системах ситуація, здається, не сильно змінилася.
Досягнення здорового глузду для нейронних мереж здається високим порядком, але більшість пропозицій, бесід та коротких текстів містять умовиводи, які слід виходити з передового світового знання. Таким чином, графік знань має велике значення для штучного інтелекту. Нейронні мережі можуть бути використані для побудови баз знань, але, здається, що моделі нейронної мережі мають труднощі з використанням цих побудованих баз знань.
Мої запитання:
Чи є база знань (наприклад, "графік знань", придуманий Google) перспективною галуззю AI? Якщо так, то яким чином КБ може розширити можливості машинного навчання? Як ми можемо включити дискретні латентні змінні в NLU та NLG?
Для виживання в епоху, де домінує DL, де напрямок до бази знань (або символічний підхід парасольового терміна)? Чи є новий напрямок схожий на Wolfram z динамічну базу знань? Або якісь нові напрямки?
Я пропускаю щось фундаментальне чи якісь ідеї, які стосуються цих питань?