Як AI вивчить мову?


11

Я думав про ІС та про те, як вони працюватимуть, коли зрозумів, що не можу придумати спосіб, яким ІІ можна викладати мову. Дитина, як правило, вивчає мову через асоціації мови та малюнків до предмета (наприклад, люди говорять слово "собака" під час собаки, а пізніше усвідомлюючи, що люди кажуть "собака" та "машина", і дізнаються, що " "засоби тощо). Однак текстовий AI не міг використовувати цей метод для вивчення, оскільки вони не мали б доступу до будь-якого пристрою введення.

Єдиний спосіб, який я міг би придумати, - це програмування кожного слова та правила англійською мовою (або будь-якою мовою, якою вона означає «розмовляти»), однак це може зайняти роки.

Хтось має ідеї, як це можна зробити? Або якщо це вже зроблено, якщо так, як?

До речі, в цьому контексті я використовую ШІ, щоб мати на увазі систему штучного інтелекту з інтелектом близько людини і попереднім знанням мови.

Відповіді:


12

Загальна область дослідження відома як граматична індукція .

Як правило, це образоване як контрольована проблема навчання, при цьому введення подається як неочищений текст, а потрібний вихід - відповідне дерево розбору . Навчальний набір часто складається як з позитивних, так і з негативних прикладів.

Не існує єдиного найкращого методу для досягнення цього, але деякі методи, які використовувались на сьогодні, включають:


6

Термін «парасолька» для вашої проблеми називається обробкою природними мовами (НЛП) - темою, присвяченою штучному інтелекту.

У цій галузі існує багато підтемати, включаючи мовну семантику, граматичний аналіз, частини тегів мови, аналіз конкретного контексту для домену тощо.


5

Тільки задля повноти зазначу, що для обробки природних мов (НЛП) часто використовують повторювані нейронні мережі (тобто нейронні мережі з зворотними з'єднаннями). Сюди входять такі варіанти, як Двонаправлена, Йорданська та Елманська мережі. Довга короткострокова пам'ять (LSTM) - це більш досконалий алгоритм нейронної мережі, який може виконувати завдання, що базуються на часі та послідовності, але який може використовувати стандартні методи навчання, як backprop, оскільки він не страждає від "зникаючої градієнтної проблеми". Це пояснюється тим, що LSTM були блискуче сконструйовані як "ідеальні інтегратори", що полегшує обчислення градієнтів помилок тощо протягом тривалих періодів часу. У контрасті, навчання з RNN все ще не є теоретично обґрунтованим і важко обчислити за допомогою таких методів, як Backpropagation Through Time (BPTT). У нейронних мережах із затримкою часу (TDNN) ідея полягає в тому, щоб додати нові нейрони та зв’язки з кожним новим прикладом тренувань через проміжок часу або навчальної послідовності; на жаль, це накладає практичне обмеження на те, скільки прикладів можна подати в мережу, перш ніж розмір мережі вийде з-під руки або вона почне забувати, як і RNN. У LSTM є набагато довші запам'ятовування (особливо, коли вони доповнені нейронними машинами Тюрінга), тому це був би мій перший вибір, якщо припустити, що я хотів використовувати нейронні сітки для цілей NLP. Мої знання з цього предмету обмежені (я все ще намагаюся вивчити мотузки), тому, можливо, існують інші важливі алгоритми нейронної сітки, які я оглядаю ...

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.