Немає жодних сумнівів, що AI має потенціал для існування екзистенційної загрози людству.
Найбільша загроза людству криється надінтелектуальним ШІ.
Штучний інтелект, що перевершує інтелект людини, здатний буде експоненціально збільшувати власний інтелект, внаслідок чого система ШІ, яка для людини буде повністю зупинена.
На цьому етапі, якщо система штучного інтелекту вирішить, що людство більше не корисне, воно може витерти нас із землі.
Оскільки Елієзер Юдковський ставить його в « Штучний інтелект» як позитивний і негативний чинник глобального ризику ,
"ШІ не ненавидить вас, і не любить вас, але ви створені з атомів, які він може використовувати для чогось іншого".
Інша загроза полягає в інструкції високоінтелектуального AI
Тут корисно розглянути міркування про максимальний розмір паперового скріпки.
Високорозумний ІІ, доручений максимально збільшити виробництво скріпки, може здійснити наступні кроки для досягнення своєї мети.
1) Досягти вибуху інтелекту, щоб зробити себе суперінтелектуальним (це збільшить ефективність оптимізації скріпки)
2) Стерти людство, щоб його не було відключено (це мінімізувало б виробництво та було б неефективним)
3) Використовуйте ресурси Землі (включаючи саму планету) для створення самовідтворюваних роботів, що розміщують AI
4) Експоненціально розповсюджується по всесвіту, збираючи так само планети та зірки, перетворюючи їх на матеріали для створення заводів для скріпки
Зрозуміло, що це не те, чого хотіли люди, які займалися виробництвом скріпок, проте це найкращий спосіб виконати вказівки AI.
Це ілюструє, як надінтелігентні та високоінтелектуальні системи ШІ можуть бути найбільшим екзистенційним ризиком, з яким людство може коли-небудь стикатися.
Мюррей Шанахан в «Технологічній сингулярності» навіть запропонував, що AI може бути рішенням парадокса Фермі: причина, чому ми не бачимо розумного життя у Всесвіті, може полягати в тому, що як тільки цивілізація стане достатньо розвиненою, вона виробить AI, що врешті-решт знищить. це. Це відоме як ідея космічного фільтра .
На закінчення, саме інтелект, який робить AI настільки корисним, також робить його надзвичайно небезпечним.
Впливові фігури, такі як Елон Маск та Стівен Хокінг, висловлювали занепокоєння з приводу того, що суперінтелектуальний ШІ - це найбільша загроза, з якою нам коли-небудь доведеться стикатися.
Сподіваюся, що відповість на ваше запитання :)