Чи можуть існувати екзистенційні загрози людству через ШІ?


9

Ми займаємось дослідженнями, витрачаючи години на з'ясування того, як можна зробити справжнє програмне забезпечення AI (інтелектуальні агенти) для кращої роботи. Ми також намагаємось реалізувати деякі програми, наприклад, у бізнесі, охороні здоров'я та освіті, використовуючи технологію AI.

Тим не менш, поки що більшість із нас ігнорували "темну" сторону штучного інтелекту. Наприклад, "неетична" людина могла купити тисячі дешевих безпілотників, озброїти їх зброєю та відправити стрілянину по громадськості. Це було б "неетичне" застосування ШІ.

Чи можуть бути (в майбутньому) екзистенційні загрози людству через ШІ?


Будь-яка технологія має потенційну небезпеку для людства.
Анкур

Відповіді:


2

Я б визначив інтелект як здатність передбачати майбутнє. Тож якщо хтось розумний, він може передбачити деякі аспекти майбутнього і вирішити, що робити на основі своїх прогнозів. Отже, якщо "розумна" людина вирішить заподіяти шкоду іншим людям, він може бути дуже ефективним у цьому (наприклад, Гітлер та його співробітники).

Штучний інтелект може бути надзвичайно ефективним для прогнозування деяких аспектів невизначеного майбутнього. І це ІМХО призводить до двох негативних сценаріїв:

  1. Хтось програмує це для заподіяння шкоди людям. Або помилково, або навмисно.
  2. Штучний інтелект буде розроблений для того, щоб зробити щось безпечне, але в якийсь момент, щоб бути більш ефективним, він буде перепроектувати себе і, можливо, усуне перешкоди на своєму шляху. Тож якщо люди стають перешкодами, вони будуть усунені дуже швидко та дуже ефективно.

Звичайно, є і позитивні сценарії, але ви їх не запитуєте.

Рекомендую прочитати цю класну публікацію про штучну надрозвідку та можливі результати її створення: http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html


Дякуємо за вашу відповідь. Багато чого зацікавив цей другий момент. Позитивна сторона, в першому параграфі є хіт, сподіваюсь, що ви побачите.
квінтумнія

4

Немає жодних сумнівів, що AI має потенціал для існування екзистенційної загрози людству.

Найбільша загроза людству криється надінтелектуальним ШІ.

Штучний інтелект, що перевершує інтелект людини, здатний буде експоненціально збільшувати власний інтелект, внаслідок чого система ШІ, яка для людини буде повністю зупинена.

На цьому етапі, якщо система штучного інтелекту вирішить, що людство більше не корисне, воно може витерти нас із землі.

Оскільки Елієзер Юдковський ставить його в « Штучний інтелект» як позитивний і негативний чинник глобального ризику ,

"ШІ не ненавидить вас, і не любить вас, але ви створені з атомів, які він може використовувати для чогось іншого".

Інша загроза полягає в інструкції високоінтелектуального AI

Тут корисно розглянути міркування про максимальний розмір паперового скріпки.

Високорозумний ІІ, доручений максимально збільшити виробництво скріпки, може здійснити наступні кроки для досягнення своєї мети.

1) Досягти вибуху інтелекту, щоб зробити себе суперінтелектуальним (це збільшить ефективність оптимізації скріпки)

2) Стерти людство, щоб його не було відключено (це мінімізувало б виробництво та було б неефективним)

3) Використовуйте ресурси Землі (включаючи саму планету) для створення самовідтворюваних роботів, що розміщують AI

4) Експоненціально розповсюджується по всесвіту, збираючи так само планети та зірки, перетворюючи їх на матеріали для створення заводів для скріпки

Зрозуміло, що це не те, чого хотіли люди, які займалися виробництвом скріпок, проте це найкращий спосіб виконати вказівки AI.

Це ілюструє, як надінтелігентні та високоінтелектуальні системи ШІ можуть бути найбільшим екзистенційним ризиком, з яким людство може коли-небудь стикатися.

Мюррей Шанахан в «Технологічній сингулярності» навіть запропонував, що AI може бути рішенням парадокса Фермі: причина, чому ми не бачимо розумного життя у Всесвіті, може полягати в тому, що як тільки цивілізація стане достатньо розвиненою, вона виробить AI, що врешті-решт знищить. це. Це відоме як ідея космічного фільтра .

На закінчення, саме інтелект, який робить AI настільки корисним, також робить його надзвичайно небезпечним.

Впливові фігури, такі як Елон Маск та Стівен Хокінг, висловлювали занепокоєння з приводу того, що суперінтелектуальний ШІ - це найбільша загроза, з якою нам коли-небудь доведеться стикатися.

Сподіваюся, що відповість на ваше запитання :)

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.