Це можливий побічний ефект
Будь-який агент, орієнтований на ціль, може просто робити речі, які досягають його цілей, ігноруючи побічні ефекти, які не мають значення для цих цілей.
Якщо мої цілі включають в себе охайний життєвий простір, я можу перетворити свій двір на приємний, рівний газон чи тротуар, витираючи складну екосистему життя, яка там була раніше, тому що я не дбаю про це.
Якщо цілі конкретного потужного ШІ включають в себе щось велике, а якимось чином не дбає про сучасну складну екосистему, то ця екосистема може бути знищена в процесі. Не потрібно нас хотіти чи потрібно викреслювати. Якщо ми просто не пов'язані з його цілями, то ми виготовлені з матеріалів і займаємо простір, який він, можливо, захоче використовувати для чогось іншого.
Ми є загрозою для більшості цілей
Будь-яка цілеспрямована агент може хотіти , щоб переконатися , що вони можуть виконувати свої завдання. Будь-який розумний агент намагатиметься передбачити дії інших агентів, які можуть заважати їм досягти цих цілей, та вживатиме заходів для того, щоб все-таки досягти успіху. У багатьох випадках простіше усунути ці інші агенти, а не переконатись у тому, що їх зусилля провалюються.
Наприклад, мої цілі можуть включати зберігання пакетика цукру в заміському будинку, щоб я міг приготувати млинці під час відвідування, не привозячи всіх інгредієнтів кожен раз. Однак якщо я залишу його там, швидше за все, з'їдять щурів взимку. Я можу вжити всіх видів запобіжних заходів, щоб їх краще зберігати, але щури розумні і хитрі, і явно є нетривіальний шанс, що все-таки все-таки вдасться досягти своєї мети, тому ефективним додатковим запобіжним засобом є вбивство щурів, перш ніж вони отримають шанс. спробувати.
Якщо цілями конкретного потужного AI є виконання X; може прийти до розуміння того, що (деякі?) люди можуть насправді не хотіти X, а Y. Також легко можна зробити висновок, що деякі з цих людей можуть активно робити речі, які заважають X та / або намагаються вимкнути ШІ. Робити речі, які забезпечують досягнення поставленої мети, це те, що робить агент, що шукає ціль; У цьому випадку, якщо існування людей не є строго необхідним для досягнення мети X, то усунення їх стає міцною стратегією зниження ризику. Це не суворо необхідно, і для цього можуть бути застосовані всі інші заходи обережності, але так само, як і в моєму прикладі щурів, люди розумні і хитрі, і явно є нетривіальний шанс, що їм все-таки вдасться досягти своїх цілі (щоб X не сталося так, як AI має намір), тому ефективна додаткова обережність може вбити їх, перш ніж вони отримають можливість спробувати.