Я слухав розмову групи, що складалася з двох впливових китайських вчених: Ван Ганга та Ю. Кая та інших.
На запитання про найбільше вузьке місце розвитку штучного інтелекту в найближчому майбутньому (від 3 до 5 років), Ю. Кай, який має досвід роботи в апаратній галузі, сказав, що обладнання є найважливішою проблемою, і ми повинні платити більшу частину наша увага до цього. Він навів два приклади:
- На початку розвитку комп'ютера ми порівнюємо наші машини за його мікросхемами;
- Штучний інтелект, який користується великою популярністю в ці роки, був би майже неможливим, якби не наділений повноваженнями GPU Nvidia.
Фундаментальні алгоритми існували вже у 1980-х та 1990-х роках, але штучний інтелект пройшов через 3 AI зими і не був емпіричним, поки ми не змогли навчити моделі з мега-серверами, що підтримують GPU.
Тоді доктор Ванг прокоментував свою думку, що ми також повинні розробляти програмні системи, оскільки ми не можемо створити автоматичну машину, навіть якщо ми поєднали всі GPU та обчислення у світі разом.
Тоді, як завжди, мій розум відганяв, і я почав думати, що що робити, якщо ті, хто вміє керувати суперкомп'ютерами у 1980-х та 1990-х, використовують алгоритми нейромережевих мереж, що існували тоді, і навчають їх з тоннами наукових даних? Деякі люди в той час, очевидно, можуть спробувати побудувати системи AI, які ми будуємо зараз. Але чому AI став гарячою темою і став емпіричним до десятиліть пізніше? Це лише питання обладнання, програмного забезпечення та даних?