Чому Стівен Хокінг каже "Штучний інтелект вбиває всіх нас"? [зачинено]


10

Ця цитата Стівена Хокінга є в заголовках вже досить давно:

Штучний інтелект може знищити людство, коли воно стане занадто розумним, оскільки люди будуть схожі на мурах.

Чому він це говорить? Простіше кажучи: миряни: які можливі загрози з боку ШІ? Якщо ми знаємо, що ШІ настільки небезпечний, чому ми все ще його просуваємо? Чому це не заборонено?

Які несприятливі наслідки так званої технологічної сингулярності ?


1
Може це питання можна переосмислити на питання про можливість технологічної особливості?
Роб Мюррей

1
@ R.Murray Відредагував та додав свою точку до тіла ...
татан

2
Вибачте, але від мене відмовились. Будь-ласка, будь ласка, поставте відповіді, а не спекулятивні. Я маю на увазі "Чому Стівен Хокінг каже" Штучний інтелект нас усіх уб'є "?". Якою ви очікуєте правильної відповіді? Нам потрібні технічні питання щодо ранньої бета-версії для залучення експертів, а не тих, хто має основні знання з прочитання кількох сторінок вікіпедії. Знову цитуючи "Чому Стівен Хокінг каже" Штучний інтелект нас усіх вб'є "?". Я не думаю, що для цього потрібна якась експертиза . Вибачте, якщо я натрапив на мій грубий
настрій, так

Питання краще після редагування, але було б добре зменшити кількість запитань на один. Наприклад, ви можете запитати "Як міг AI знищити людство?" (як вам здається, що робите), але чому це все ще так широко досліджується - це інше питання.
Бен N

2
Я вважаю, що питання в назві не є поганим питанням. На це є відповідь, тому що вона запитує про те, що думає Стівен Хокінг. Інші питання в організмі відрізняються від цього і їх слід усунути. Я згоден, хоча це не те питання, яке б приваблювало експертів
Harsh

Відповіді:


5

Це не тільки Хокінг, ви чуєте зміни на цьому рефрені від багатьох людей. А враховуючи, що вони в основному дуже розумні, добре освічені, добре обізнані люди (наприклад, Ілон Маск) - це, мабуть, не повинно бути відхиленим від руки.

У будь-якому разі, основна ідея здається такою: якщо ми створимо "справжній" штучний інтелект, в якийсь момент він зможе вдосконалити себе, що покращує його здатність до самовдосконалення, а значить, може покращити свою здатність вдосконалювати себе навіть більше тощо ... утікаючий каскад, що веде до "нелюдської розвідки". Тобто, це веде до чогось розумнішого, ніж ми.

То що відбувається, якщо на цій планеті є сутність, яка буквально розумніша за нас (людей)? Чи буде це для нас загроза? Що ж, безумовно, здається розумним міркувати, що це могло бути так. ОТО, зараз у нас немає конкретних причин думати, що так буде .

Тож здається, що Хокінг, Маск тощо просто сходять на більш обережну / страшну сторону речей. Оскільки ми не знаємо, чи буде надлюдський ШІ небезпечним чи ні, і враховуючи, що він може бути зупинений, якби він став зловмисним (пам’ятайте, він розумніший, ніж ми!), Це розумно взяти до уваги.

Елієзер Юдковський також досить багато написав на цю тему, в тому числі придумав відомий експеримент "AI Box". Я думаю, що кожен, хто цікавиться цією темою, повинен прочитати частину його матеріалу.

http://www.yudkowsky.net/singularity/aibox/


1
Я думаю, що AI Box насправді є поганим вступом до ризику ШІ; вона орієнтована на конкретну невелику частину пояснення, яка полягає в тому, що "як хто-небудь міг переконатись, щоб випустити ШІ з коробки?". Тим, хто вважає, що AI варто використовувати, вони вже вирішили, що варто його випустити з коробки. Теза з ортогональності, мабуть, найкраще почати.
Меттью Грейвс

Справедливо. Мені просто трапляється більше знайомий із працями Юдковського. Я, звичайно, не маю на увазі зменшити важливість інших творів на цю тему.
mindcrime

4

Тому що він ще не знав, наскільки далеко знаходиться нинішній ШІ ... Працюючи в медіатехнічній лабораторії AI, я отримую це питання багато. Але насправді ... ми до цього ще далекі. Роботи все ще роблять все, що ми їх детально описуємо. Замість того, щоб побачити робота як розумного, я би звернувся до людського програміста, де б там не було творчості.


Оцінка чесності стану досліджень - один із опор для прогресу. Дякую. Я згоден.
Фахристиян

3

Простіше кажучи, які можливі загрози з боку ШІ?

Наразі загрози немає.

Загроза настає, якщо людина створить так звану ультраінтелигентну машину, машину, яка може перевершити будь-яку інтелектуальну діяльність будь-якої людини. Це був би останній винахід, який людині потрібно було б зробити, оскільки ця машина краще придумує машини, ніж люди (оскільки це інтелектуальна діяльність). Однак це може змусити машину винайти машини, які можуть знищити людину, і ми не можемо зупинити їх, оскільки вони настільки розумніші, ніж ми.

Це все гіпотетично, ніхто навіть не має уявлення про те, як виглядає ультраінтелектуальна машина.

Якщо ми знаємо, що ШІ настільки небезпечний, чому ми все ще його просуваємо? Чому це не заборонено?

Як я вже говорив раніше, існування ультраінтелигентної машини є гіпотетичним. Штучний інтелект має багато корисних програм (більше, ніж ця відповідь може містити), і якщо ми розвинемо його, ми отримаємо ще більше корисних додатків. Ми просто повинні бути обережними, щоб машини не обганяли нас.


3

Як сказав Ендрю Нг , турбуватися про таку загрозу з боку ШІ - це як турбуватися про перенаселення на Марсі. Це наукова фантастика.

введіть тут опис зображення

Однак, зважаючи на появу (набагато слабкіших) роботів та інших (напів-) автономних агентів, сфери закону та етики все більше їх включають, наприклад, див. Робоетику .


3

Існує ряд довгих ресурсів для відповіді на подібне запитання: розгляньте книгу Стюарта Армстронга « Розумніші за нас» , книгу Ніка Бострома « Суперінтеллект» , яка виросла з цієї відповіді edge.org , пояснення Тіма Урбана чи пояснення Майкла Коена .

Але ось моя (дещо коротша) відповідь: розвідка полягає у прийнятті рішень, і ми не маємо жодних підстав вважати, що люди десь поблизу, щоб бути найкращим можливим у прийнятті рішень. Як тільки ми зможемо створити дослідника AI AI (тобто комп’ютера, який знає, як зробити комп'ютери краще для мислення), економічна та військова актуальність людини швидко зникне, оскільки будь-яке рішення, яке може прийняти людина, може бути прийнято краще за комп’ютером. (Чому замість роботів-генералів є людські генерали, замість роботів-інженери тощо).

Це не обов'язково катастрофа. Якби вулкани завтра з’явилися і принесли кращі рішення на Землю, ми могли б уникнути багатьох нещасть. Важка частина - переконатися, що ми отримуємо вулкани, які хочуть, щоб ми були навколо та щасливі, а не те, що не поділяє наших цінностей.


3

Він каже це тому, що це може статися. Якщо щось стає розумнішим за нас, чому б воно продовжувало нам служити? Найгірший сценарій - це те, що він бере на себе всі виробничі процеси і споживає всю матерію для перетворення її в матеріал, здатний до обчислення, розширюючись назовні нескінченно, поки вся матерія не буде витрачена.

Ми знаємо, що ШІ небезпечний, але це не має значення, тому що більшість людей у ​​це не вірить. Це суперечить кожному комфорту, який може запропонувати релігія. Людина - це все-все-бути всім Всесвітом, і якщо цей факт буде оспорюватися, люди почуватимуться поза місцем і безцільно.

Справа в тому, що більшість людей просто не усвідомлюють, що це можливо, або що це станеться в наше життя, хоча багато поважних експертів у галузі інтелектуальної власності вважають виникнення сингулярності протягом двох десятиліть. Якби люди справді визнавали, що ШІ, який був розумніший за них, не могли б вони жити інакше? Хіба вони не прагнуть робити те, що їм подобається, знаючи, що все, що вони роблять, те, що вони бояться, буде автоматизовано? Чи не всі благали загального базового доходу?

Інша причина, яку ми не забороняємо, це тому, що її обіцянка така велика. Одного дослідника можна було б доповнити 1000 асистентами цифрових досліджень. Вся ручна праця могла бути автоматизована. Вперше технології пропонують нам справжню свободу робити все, що завгодно.

Але навіть у такому найкращому випадку, коли він нас не наздоганяє, люди все одно повинні пристосовувати та змінювати свою економічну систему до такої, де робоча сила не потрібна. Інакше ті, хто не підготовлений технічно, будуть голодувати і бунтувати.


Чи є у вас соус до цього -> "Експерти AI ставлять виникнення сингулярності протягом двох десятиліть" , будь ласка? ;)
Даніель

Я не можу знайти оригінальне опитування, але ці сайти наближаються: aiimpacts.org/predictions-of-human-level-ai-timelines - aiimpacts.org/ai-timeline-surveys - techemergence.com/artificial-intelligence ? ризик
Завтра
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.