Що ми знаємо
Згідно зі сторінкою Світового банку , "Сьогодні у світі є близько 200 мільйонів студентів вищої освіти, що перевищує 89 мільйонів у 1998 році". Щонайменше 1 на 100, як вимога математики, повинен був розробити доказ теореми і прожити принаймні 40 років після цього.
Хоча є щонайменше 20 мільйонів нейронних мереж, які можуть довести теорему, вони не відповідають прикладам, які б відповіли на це питання ствердно. Ці нейронні мережі є біологічними, а не штучними, і вони здебільшого мають перевірені раніше доведені теореми, а не гіпотеза Коллаца чи гіпотеза Рімана.
У що деякі вірять
Ті, хто вірять, що пристрої глибокого Q-навчання та уваги приєднаються до інших конструкцій системи навчання до тих пір, поки здібності людського мозку не будуть імітовані та, можливо, перевершені, ймовірно, включатимуть теорему, що є однією з цих можливостей людини. Вони, ймовірно, оголошують логіку і умовивід предикатів лише черговою складною пізнавальною функцією, яка буде досягнута у штучних системах.
Ті, хто вважає, що деякі можливості занурені в людину і є зарезервованими можливостями, можуть оголосити логіку і умовивід предикату зарезервованими лише для людей.
Поточний стан прогресу
Немає академічних статей, які б вказували на здатність доводити навіть найпростіші докази, використовуючи логіку предикатів та умовиводи. Можливо, що уряд чи приватне підприємство досягли певного рівня успіху в цьому, але такого не було розголошено.
Ідея про те, що штучні мережі, якщо вони будуть розвинені помітно, можуть перевершити виробничі системи, системи ШІ, що базуються на виробництві чи правилах, у своїх областях найбільшої ефективності була запропонована ще на початку розвитку ШІ. Тоді це було спірним та оспорюваним зараз, однак аргументи не є математичними, тому немає чітких ознак того, що це неможливо.
Безумовно, інші когнітивні аспекти людської думки є важливими цілями досліджень ШІ. Діалог, автоматизована освіта, планування, стратегічний аналіз та пілотування транспортних засобів - це всі аспекти вищої думки, які тепер можуть забезпечити більше, ніж DQN та мережеві підходи, орієнтовані на увагу, але зусилля в цих областях помітні та добре фінансуються.
Потенційний підхід
Дослідження логічних пізнавальних здібностей повинні почати докази, які вже знають, набагато простіші, ніж вигадки, згадані у питанні. Наприклад, доведено, що сума двох невід’ємних цілих чисел повинна бути іншим негативним цілим числом. У обчисленні предиката це може бути представлено у вигляді рядка символів.
∀ a ∈ C, b ∈ C: s = a + b⟹s ∈ C
У ньому йдеться про те, що a і b є членами множини підрахунку чисел, що s, визначена як сума двох, також повинна бути членом набору підрахунку чисел. Її доказ може бути також представлений як послідовність символьних рядків предикатного числення першого порядку.
Жодного невеликого дослідницького проекту
Такий приклад може здатися простим тому, хто пройшов роки математичних курсів і створив докази. Для дитини це непросто, і дуже важко отримати штучну мережу для сходження до функції, яка застосовує всі правила логічного умовиводу і містить мета-правила для отримання доказів для такої формальної системи, як арифметика цілих чисел.
Наявність повних мереж, таких як RNN, безумовно, матиме переваги перед MLP (багатошарові перцептрони). Мережі на основі уваги можуть бути розумним варіантом дослідження. Є й інші, зазначені в посиланнях нижче.
Для дослідження була б потрібна паралельна обчислювальна платформа, оскільки вхідний вектор може становити сотні Кбайт. Розміри прикладів і скільки їх потрібно буде складно оцінити, не потрапляючи на рік або два в процес дослідження.
Визначення підрахунку чисел, знаку плюс та знаку рівності спочатку слід визначити, а ці визначення та ряд аксіом, постулатів, лем та наслідків повинні бути частиною вхідного прикладу у формальній формі, як пропозиція бути Доведено вище, разом із цією пропозицією.
І ось робота над підготовкою лише одного прикладу. Вам знадобляться тисячі, щоб навчити інтуїтивно зрозумілим правилам висновку в глибоку мережу. (Я вибрав слово INTUITIVE дуже навмисно з теоретичних причин, для того, щоб пояснити добре, потрібно щонайменше сто сторінок.)
Це не маленький проект, оскільки приклад набору даних повинен мати принаймні кілька тисяч випадків, і кожен випадок, хоча він може поділяти певну теорію, повинен бути налаштований так, щоб пропозиція була сформована ідеально і також був представлений необхідний теоретичний масив у ідеальній формі на вході для кожної тренувальної ітерації.
Я гадаю, що знадобиться команда яскравих дослідників з відповідним розумінням глибоких мереж, конвергенції та прогнозування обчислення приблизно десять років, щоб навчити мережу давати життєздатні докази у відповідь на прості математичні пропозиції.
Але це не було б маленьким досягненням
Це може здатися абсурдним починанням для деяких, але це був би перший випадок, коли хтось навчав комп’ютер, як бути логічним. Природа взяла природу трохи під земним віком, щоб навчити логічному висновку організму Сократу.
Люди припускають, що оскільки комп’ютер складається з цифрових мікросхем, які виконують логіку за конструкцією, то комп'ютери є логічними. Кожен, хто десятиліттями займається розробкою програмного забезпечення, схильний мислити глибше, ніж хакерство заради розваги чи грошей, знає інакше. Навіть після ретельного програмування комп'ютери не моделюють логічне умовивід і не можуть виправити власну програмовану поведінку для будь-якої довільної помилки. Насправді, більшість розробників програмного забезпечення сьогодні - це виправлення помилок.
Моделювання логічної думки було б головним кроком до моделювання пізнання та широкого кола людських можливостей.
Список літератури
Навчитися складати нейронні мережі для відповідей на Джекоб Андреас, Маркус Рорбах, Тревор Даррелл та Ден Клейн UC, Берклі 2016
https://arxiv.org/pdf/1601.01705.pdf
Вивчення декількох рівнів представництва Джеффрі Е. Хінтона Кафедра комп'ютерних наук, Університет Торонто 2007
http://www.csri.utoronto.ca/~hinton/absps/ticsdraft.pdf
Нейронна машина Тьюрінга (слайд-шоу) Автор: Алекс Грейвс, Грег Уейн, Іво Даніелька Представлено: Tinghui Wang (Стів)
https://eecs.wsu.edu/~cook/aiseminar/papers/steve.pdf
Нейронні машини твердіння (папір) Алекс Грейвс, Грег Уейн, Іво Даніелка
https://pdfs.semanticscholar.org/c112/6fbffd6b8547a44c58b192b36b08b18299de.pdf
2014
Навчання підкріпленню, машини нейронного твердіння Войцех Заремба, конференція ICLR Іллі Суцкевера
https://arxiv.org/pdf/1505.00521.pdf?utm_content=buffer2aaa3&utm_medium=social&utm_source=twitter.com&utm_campaign=buffer
2016
Динамічна машина нейронного твердіння з безперервними та дискретними схемами адресації Caglar Gulcehre1, Sarath Chandar1, Kyunghyun Cho2, Yushua Bengio1
https://arxiv.org/pdf/1607.00036.pdf
2017
Інтерактивна самоконструювальна нейронна нечітка, виводна мережа та її програми Chia-Feng Juang та Chin-Teng Lin IEEE, транзакції в нечітких системах, v6, n1 1998
https://ir.nctu.edu.tw/bitstream/11536/ 32809/1 / 000072774800002.pdf
Нейронні мережі графічних послідовностей Юджія Лі та Річард Земель, конференція ICLR на конференцію 2016 року
https://arxiv.org/pdf/1511.05493.pdf
Будівельні машини, які навчаються та думають, як люди Бренден Лейк, Томер Д. Улман, Джошуа Б. Тененбаум та Самюель Дж. Гершман з питань поведінки та мозку 2016
https://arxiv.org/pdf/1604.00289.pdf
Контекстно-залежні попередньо навчені глибокі нейронні мережі для розпізнавання мови великого словника Джордж Е. Даль, Донг Ю, Лі Денг та Алекс Асеро IEEE з трансляції аудіо, мови та мови 2012
https://s3.amazonaws.com/ academia.edu.documents / 34691735 / dbn4lvcsr-transaslp.pdf? AWSAccessKeyId = AKIAIWOWYYGZ2Y53UL3A & Expires = 1534211789 & Signature = 33QcFP0JGFeA% 2FTsqjQZpp_e_e_e_e_e_ec_e_ec_ec_ec_ec_ec_ec_ec_ec_ec_ec_ec_ec_ec_e_ec_ecd_pxYeeeeeeeeeeeeeeee 10%
Включення об'єктів та зв'язків для навчання та виведення з баз знань Бішан Ян1, Вень-Тау Ііх2, Сяодун Хе2, Цзянфен Гао2 та Лі Денг2 Конференційний документ ICLR 2015
https://arxiv.org/pdf/1412.6575.pdf
Алгоритм швидкого вивчення мереж глибокої віри Джеффрі Е. Гінтон, Саймон Осіндеро, Ей-Уай Тех (повідомлення: Ян Ле Кун) Нейрові обчислення 18 2006 року
http://axon.cs.byu.edu/Dan/778/papers/Deep % 20Мережі / hinton1 * .pdf
FINN: Структура для швидкого, масштабованого бінарного нейромережі Яман Умуроглу та ін. 2016
https://arxiv.org/pdf/1612.07119.pdf
Від машинного навчання до машинного розуму Леона Ботто 2/8/2011
https://arxiv.org/pdf/1102.1808.pdf
Поглиблене навчання Yann LeCun1,2, Yoshua Bengio3 та Geoffrey Hinton4,5 Nature vol 521 2015
https://www.evl.uic.edu/creativecoding/courses/cs523/slides/week3/DeepLearning_LeCun.pdf