Що таке поняття технологічної особливості?


32

Я чув ідею про технологічну особливість, що це таке і як воно стосується штучного інтелекту? Це теоретичний момент, коли машини штучного інтелекту прогресували до тієї точки, коли вони ростуть і навчаються самостійно за межами того, що можуть робити люди, і їх зростання злітає? Як ми могли б знати, коли досягнемо цієї точки?

Відповіді:


20

Технологічна сингулярність теоретична точка в часі , при якому той, хто самовдосконалюється штучний загальний інтелект стає здатним зрозуміти і маніпулювати поняттями за межами діапазону людського мозку, тобто в момент , коли він може зрозуміти речі людей, біологічної конструкцією, може » т.

Неясність щодо сингулярності походить від того, що, починаючи з сингулярності, історія є фактично непередбачуваною. Людство не зможе передбачити будь-яких майбутніх подій або пояснити будь-які теперішні події, оскільки сама наука стає нездатною описати події, викликані машиною. По суті, машини думали б про нас так само, як ми думаємо про мурах. Таким чином, ми не можемо робити ніяких прогнозів минулого сингулярності. Крім того, як логічний наслідок ми не зможемо визначити точку, в якій сингулярність може взагалі виникати, або навіть визнати її, коли це станеться.

Однак для того, щоб відбулася сингулярність, потрібно розробити AGI, а чи можливо це досить гаряча дискусіянегайно. Більше того, алгоритм, який створює надлюдський інтелект з бітів і байтів, повинен був би бути розроблений. За визначенням, людський програміст не зміг би зробити такого, оскільки його / її мозок повинен мати можливість розуміти поняття, що виходять за межі його діапазону. Існує також аргумент, що вибух розвідки (механізм, за допомогою якого теоретично формується технологічна особливість) був би неможливим через складність завдання проектування зробити себе більш розумною, збільшившись пропорційно її інтелекту, і що складність сама конструкція може обігнати інтелект, необхідний для вирішення зазначеного виклику (останній пункт поваги богу лам у коментарях).

Також існують споріднені теорії, що стосуються машин, які переймають людство, і все це науково-фантастичне оповідання. Однак це навряд чи станеться закони Асимова будуть дотримані належним чином. Навіть якби законів Асімова було недостатньо, все-таки буде необхідна низка обмежень, щоб уникнути неправомірного використання АГІ з боку ненавмисних осіб, а закони Асімова найближчі до нас.


Існує також аргумент, що вибух розвідки (механізм, за допомогою якого теоретично формується технологічна особливість) був би неможливим через складність завдання проектування зробити себе більш розумною, зростаючи пропорційно її інтелекту, і що труднощі виклик проектування може обігнати інтелект, необхідний для вирішення зазначеної проблеми дизайну. << Ви можете додати це до своєї відповіді, щоб зробити її більш повною / всебічною.
бог лами

1
Закони Асимової щодо робототехніки не сприймаються серйозно, вони насправді були складені, щоб показати багато способів, коли вони можуть піти не так і бути неправильно інтерпретованими ШІ (якщо, звичайно, AI не зробить достатньо розумним, щоб повністю їх ігнорувати і скласти своє наміри та цілі), і саме про це розповідали історії. Дивіться це відео .
бог лам

@godofllamas: Дякую за вашу пропозицію, я відповідним чином оновив відповідь. Щодо законів Асімова, AFAIK, нульовий закон був розроблений саме для того, щоб уникнути багатьох способів, які три оригінальні закони (ab) використовували в розповідях Асимова. У будь-якому разі, AI, безумовно, потрібно якось обмежуватись, будь то закони Асімова чи що-небудь інше, щоб уникнути можливого неправомірного використання та подальшого хаосу.
3442

Розуміння того, чого людина не може, не є вимогою теорії сингулярності в ШІ. Якби машини могли зрозуміти лише 1% того, що люди розуміють, але могли б подвоювати цей рівень розуміння щороку, то особливість була б в наявності. Навіть якби машина ніколи не перевершувала якісний мозок людини, якщо вона могла б обробити швидше чи надійніше, вона все одно демонструватиме перевагу і, ймовірно, домагатиметься домінування.
Фахристиян

3

Поняття "особливості" - це коли машини перевершують людину. Хоча думка Стівена Хокінга полягає в тому, що така ситуація неминуча, але я думаю, що досягти цієї точки буде дуже важко, оскільки кожен алгоритм ШІ повинен бути запрограмований людьми, тому він завжди буде обмежений, ніж його творець.

Ми, мабуть, знаємо, коли настане той момент, коли людство втратить контроль над Штучним інтелектом, де супер-розумний ШІ буде конкурувати з людьми і, можливо, створювати більш складні розумні істоти, але в даний час це більше схоже на наукову фантастику (він же Скайнет Термінатора ).

Цей ризик може включати вбивство людей (як самолетні військові безпілотники, які приймають своє власне рішення), знищення країн або навіть цілої планети (як AI, підключений до ядерної зброї (він же фільм WarGames ), але це не доводить сенсу, що машини були б розумнішими за людей.


`кожен алгоритм AI повинен програмуватися людьми` -> Загальна ідея AI полягає в тому, що машини можуть вчитися, вдосконалюючи власне програмування. Теоретично це може призвести до того, що машини з часом стануть розумнішими за нас, і зможуть створити алгоритми, які перевершують будь-який алгоритм, написаний людиною, що, в свою чергу, призведе до кращого ІІ.
John Slegers

"кожен алгоритм AI повинен бути запрограмований людиною, тому він буде завжди обмежений, ніж його творець" - це цікавий аргумент. Наступні - це протилежні аргументи -1) нам не потрібно кодувати інтелект AI. нам потрібно зашифрувати ШІ для здатності спостерігати, робити висновки та розуміти. Після цього, мабуть, лише додавання достатньої кількості потужностей для обробки та швидших можливостей зробить AI здатним навчитися та зрозуміти краще за нас.2) Також, якщо 1000 людей застосують свій мозок для побудови ШІ, то AI може мати більше інтелекту, ніж 1 людські.
акм

Алгоритми НЕ потрібно програмувати людиною. Можливо і насправді дещо звичайне для перетворення, мутування, оптимізації, оцінки та вибору алгоритмів; і машини вже деяким чином перекривають людину.
Фахрістіан

3

Сингулярність, в контексті ШІ, - це теоретична подія, при якій розгортається інтелектуальна система з наступними критеріями.

  1. Здатний покращити діапазон власного інтелекту або розгорнути іншу систему з таким покращеним діапазоном
  2. Бажаючи чи змушені це робити
  3. Здатний зробити це за відсутності нагляду людини
  4. Удосконалена версія підтримує критерії (1) - (3) рекурсивно

За допомогою індукції теорія тоді передбачає, що послідовність подій буде створюватися з потенційним збільшенням рівня інтелекту, що може значно перевищити потенційну швидкість еволюції мозку.

Наскільки зобов’язане це самовдосконалюється сукупність чи сукупність вироблених сутностей зберегти життя та свободу людини не визначено. Думка про те, що таке зобов'язання може бути частиною безвідкличного програмного договору, є наївним у світлі характеру можливостей, пов'язаних із критеріями (1) - (4) вище. Як і у випадку з іншими потужними технологіями, ризики такі ж численні та далекосяжні, як і потенційні вигоди.

Ризики для людства не потребують інтелекту. Існують й інші контексти щодо використання терміна сингулярності, але вони виходять за межі цього форуму AI, але, можливо, варто чітко згадати для наочності. Генетична інженерія, ядерна інженерія, глобалізація та базування міжнародної економіки на кінцевому джерелі енергії споживаються в тисячі разів швидше, ніж це виникло в землі. Це інші приклади високоризикових технологій та масових тенденцій, що становлять ризики та вигоди людству.

Повертаючись до ШІ, головним застереженням теорії сингулярності є її неспроможність включити ймовірність. Хоча можливо створити сутність, яка відповідає критеріям (1) - (4) вище, це може бути досить малоймовірним, щоб перша подія відбулася задовго після того, як усі поточні мови, якими розмовляють на Землі, мертві.

На іншій крайності розподілу ймовірностей можна легко стверджувати, що існує ненулева ймовірність того, що перша подія вже відбулася.

У такому напрямку, якщо розумніша присутність в Інтернеті вже існує, наскільки ймовірно, що вона виявить її в найкращих інтересах розкрити себе нижчим людям. Чи познайомимось ми з проліскою?


Дякую за пояснення. Маю визнати, що концептуально я не розумію, як виглядали б ці умови, особливо 1). Імовірно, алгоритм реалізований з більш-менш визначеним набором входів і виходів. Чи потрібно вважати, що це змінює ці множини для 1) на істинність? Чому будь-який розробник людини вирішив би дозволити це, принаймні безконтрольно, навіть задовго до рівня AGI? І ... це наївне питання? :)
Cpt Рейнольдс

0

"Сингулярність", розглянута вузько, стосується точки, в якій економічне зростання настільки швидкий, що ми не можемо зробити корисні прогнози щодо того, як буде виглядати майбутнє минуле цієї точки.

Його часто використовують як взаємозамінний "вибух інтелекту", коли ми отримуємо так званий Сильний ШІ, який є AI, який досить розумний, щоб зрозуміти і вдосконалити себе. Здається, розумно очікувати, що вибух розвідки негайно призведе до економічної особливості, але зворотне не обов'язково відповідає дійсності.

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.