Що не так з думкою про те, що ШІ зможе всезнання?


10

У контексті штучного інтелекту сингулярність стосується появи штучного загального інтелекту, здатного до рекурсивного самовдосконалення, що призводить до швидкого виникнення штучного надінтеллекту (ASI), межі якого невідомі, незабаром після досягнення технологічної особливості . Тому ці суперінтеграції зможуть вирішити проблеми, які ми, можливо, не в змозі вирішити.

Згідно з опитуванням, яке повідомляється про майбутній прогрес у галузі штучного інтелекту: опитування думки експертів (2014)

Середня оцінка респондентів була двома шансами на те, що машинний інтелект високого рівня буде розвинений приблизно в 2040-2050 роках

що не дуже далеко.

Що поганого в думці про те, що ШІ буде здатний до всезнання, враховуючи, що це може принести нам користь, вирішивши багато проблем?

Відповіді:


8

Мені дуже подобається ваш світогляд, і не вдаючись до деталей того, як може бути здійснена "особливість", яка висвітлюється в численних інших питаннях, або як свідомість і "всезнання" вступають у гру, оскільки свідомість і всезнання не є вимогами , я натомість направляю вас до двох ключових філософів:

  • Філіпп К. Дік, для якого центральною темою у його знаменитій книзі про AI 1968 року є співпереживання. (Якщо ви цього ще не прочитали, я не публікую спойлер, а лише скажу, що сюжет керується концепцією теорії еволюційних ігор, яка була формалізована лише через 5 років.)

  • Джон Неш і, зокрема, концепція рівноваги Неша . (Можна сказати, що Неш математично продемонстрував, що бути «душем-пакетом» - це не оптимальна стратегія. Його доказ може бути використаний для пояснення того, чому ядерна розрядка насправді спрацьовувала , що суперечило очікуванню Фон Ноймана.)

Тож, коли люди збиваються з глузду, орієнтуючись на міфос " Skynet ", під яким піднімаються машини, щоб знищити нас, я мушу задуматися, чи вони просто не такі розумні, як Неш, або такі глибокі, як Дік, що може пояснити їхню відсутність акценту на що можна назвати парадигмою « Електрична вівця ».


1
Я тотально погоджуюся з вами. Іноді я запитую, що призводить нас до створення нових технологій. Ми хочемо абсолютних повноважень чи насправді вирішуємо свої реальні проблеми? Ось чому я вважаю за краще бачити крізь призму любові. Дехто може вважати це кліше, але я так вважаю.
Карл Зілнер

@KarlZillner Продовжуючи міфологічний фронт, у Stross ' Accellerando він вводить поняття "Економіка 2.0 *, визначене як система, в якій навіть розширені люди вже не можуть конкурувати з чистими алгоритмами, і це, здається, абсолютно безглуздо. запропонувати два основні шляхи - напівпартійний, кооперативний АІ проти гіперпартійного ШІ (які виходять як менш розумні двоюрідні брати, хоча і з високооптимізованими функціями придбання низького рівня, що дозволяють їм перевантажувати та кооптувати інфраструктуру творців. )
DukeZhou

0

Питання є гарним і на розум багатьох людей. У лінійці думки слід розглянути кілька помилок.

  • Верховенство розумних істот, окрім людей, загрожує цивілізації - Чи уявне уявлення про цю загрозу? Це раціональний висновок, коли інтелект людини є найбільш загрозливим біологічним явищем в біосфері сьогодні. Інтелект комах може бути більш стійким. Цивілізації мурах та термітів, безумовно, є більш спільними. Світові війни та геноцид - одна з головних рис людської історії.
  • Штучний інтелект стає розумнішим за людей - Штучний інтелект в деяких аспектах вже розумніший за людей, тому ми використовуємо калькулятори, автоматизовану комутацію сигналів зв'язку замість операторів та автоматизовані сортувальники пошти. Іншими способами AI доводиться долати астрономічні відстані, щоб почати наближати людський інтелект. У нас немає нічого, що навіть показує натяк на можливість моделювання чи копіювання в майбутньому людських можливостей міркувань, винахідливості чи співчуття.
  • Сингулярність прогнозується на 2040-ті - Є більше десятка нереальних припущень у цих прогнозах. Погляньте критично на будь-який з аргументів, що стоїть за ними, і ви добре оформите дірки, через які зможете пролетіти 757 із зав'язаними очима.
  • Експонентне зростання знань - спостерігається експоненціальне зростання інформації, але частка тієї інформації, яку перевіряють на законних підставах, зменшується у міру збільшення дезінформації, дикої гадки та підроблених новин. Моє переконання, що кількість інформації у світі можна наблизити до log (n), де n - кількість населення. Якщо я перебуваю на цьому шляху, інформаційне значення середнього індивіда - це log (n) / n, яке зменшується в міру зростання чисельності населення.
  • ШІ зможе всезнання - всезнання - це більше, ніж відповідь на будь-яке питання. Всезнання вимагає, щоб відповіді були 100% надійними та 100% точними, що може зажадати більше кремнію, ніж існує у Всесвіті. Прочитайте « Хаос Гліка», якщо хочете зрозуміти, чому. Можна також стверджувати, що всезнаюча істота не відповідатиме на запитання за командою.

Якщо ви хочете, щоб світ, який краще, ніж той, який контролюється людським інтелектом, то один із напрямків - це шукати розвитку нового виду з більш розвиненою концепцією мирної цивілізації, яка може приборкати і одомашнити нас, як ми це зробили з собаками і коти.

Простіший маршрут просто для всіх нас помер. Біосфера, можливо, була цивілізованішою до того, як ми приїхали і почали вбивати все і одне одного. Але це не моя надія.

Моя рекомендація полягає в тому, щоб ми вивчали НІ (неінтелект) і з'ясували, як позбутися дурного від поведінки людини та геополітичної взаємодії. Це дозволило б покращити світ набагато більше, ніж відволікати та суттєво неактуальних гаджетів та програм машинного навчання.


0

Ось деякі проблеми, з якими мій розум придумав.

1.Smart! = Все знаю

Вибух самовдосконалення ШІ робить його розумнішим та розумнішим. Бути розумнішим не означає знати більше фактів. Я вважаю, що це досить прискіпливий аргумент, але я думаю, що варто задуматися.

Дуже розумний лікар, який не знає вашої історії, все ж може зробити гірший вибір, ніж менш розумний лікар з кращими даними.

2. Це все для людини? Це для всіх людей?

ASI, що досягає більш високого рівня, не може бути зацікавлений у нашому добробуті.

Контрольований ASI все ще може працювати лише на користь нечисленних, якщо ці кілька вирішать неправильні цілі, ми могли б піти назад.

3 Сувора ASI

Науковий розум не обов'язково сповнений симпатії чи співпереживання.

4. Бути розумним і не бути розумним

Великі уми все-таки роблять помилки: * у постановці своїх цілей і * у виконанні плану її досягнення.

Geat інтелект не гарантує відсутність захищеності від світла або відсутність сліпих плям.

5. Обмеження

Якщо існують межі існування (обмеження швидкості світла), то AI буде пов'язаний і з ними. Це може означати, що є речі, які навіть ASI не "отримають". Крім того, оскільки наш розум може мати обмеження, засновані на його структурі, наступний ШІ також може мати межі - і навіть якщо він покращує uppn, він може досягти меж, на які він не може знайти рішення, оскільки це "занадто дурно".

6. Ми цього не отримаємо

Розуміння ASI певних аспектів світу може не бути комунікативним для більшості людей. Ми просто не отримаємо цього (навіть якщо ми здатні все зрозуміти, це не означає, що ми це зрозуміємо).

7. Як ним користуватися?

Ми можемо знищити себе, а ШІ з технікою, яку він допомагає нам будувати. Це не потрібно бути бомбами. Це може бути геоінженерія або дивовижні наркотики.

Це особливо інтенсивно, коли ASI вже потужний, але недостатньо сильний, щоб передбачити негативні наслідки (або ми все одно просто проігноруємо).

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.