Чи міг ШІ подумати збоку, уникаючи "етично неоптимальних" виборів?


13

В останній комп'ютерній грі «Тест Тьюрінга» AI («TOM») потрібна допомога Ava, щоб пройти через деякі головоломки. TOM каже, що він не в змозі розгадати загадки, оскільки йому не дозволено « думати збоку ». Зокрема, він каже, що не думав би кинути ящик через вікно, щоб вирішити першу кімнату. Його творці, йдеться в сюжеті, відключили цю здатність, оскільки таке мислення могло б створити "етично неоптимальні" рішення, як відсікання руки, щоб залишити на плиті тиск.

Чи потрібно всі творчі здатності до розгадування головоломок видалити з інтелектуального інтелекту, щоб зберегти його результати розумними, чи ми могли б отримати певні переваги бічного мислення, не втрачаючи руку?

Відповіді:


17

Ні , з але . Ми можемо мати творче, але етичне вирішення проблем, якщо система має повну систему етики, але в іншому випадку творчість за замовчуванням буде небезпечною.

Можна класифікувати підходи до прийняття рішень щодо ІІ на два типи: інтерполятивні мислителі та екстраполятивні мислителі.

Інтерполятивні мислителі вчаться класифікувати та імітувати те, що вони навчаються, і не намагаються дати розумні результати за межами своєї навчальної сфери. Ви можете розглядати їх як інтерполяцію між прикладами навчання та користь від усіх математичних гарантій та положень як інших статистичних методів.

Екстраполятивні мислителі вчаться маніпулювати основними принципами, що дозволяє їм поєднувати ці принципи раніше непродуманими способами. Відповідним полем для інтуїції тут є чисельна оптимізація , з яких найпростішим і найвідомішим прикладом є лінійне програмування , а не статистичні поля, що породили машинне навчання. Ви можете розцінювати їх як екстраполяцію поза прикладами тренувань (дійсно, багато з них навіть не вимагають прикладів тренувань або використовують ці приклади, щоб зробити висновок про основні принципи).

Обіцянка екстраполятивних мислителів полягає в тому, що вони можуть придумати ці «бічні» рішення набагато швидше, ніж люди могли б. Проблема цих екстраполятивних мислителів полягає в тому, що вони використовують лише розмовні принципи, а не якісь невисловлені, які можуть здатися занадто очевидними для згадки.

Атрибутом вирішення проблем оптимізації є те, що вектор функції в деякому роді часто є "крайнім". У лінійному програмуванні принаймні одна вершина можливого простору рішення буде оптимальною, і тому прості методи рішення знаходять оптимальну вершину (що майже неможливо за версією вершини).

В іншому прикладі рішення з мінімальним паливом для переміщення космічного корабля з однієї позиції на іншу називається " удар-удар ", де ви прискорюєте судно якнайшвидше на початку та в кінці траєкторії, виходячи на узбережжя з максимальною швидкістю між .

У той час як доброчесність, коли система правильно зрозуміла (ударний вибух є оптимальним для багатьох випадків), це катастрофічно, коли система неправильно зрозуміла. Мій улюблений приклад - проблема дієти Данцига (обговорення починається на сторінці 5 pdf), де він намагається оптимізувати своє харчування, використовуючи математику. За його першого обмеження, він повинен пити 500 галонів оцту на день. Під його другим 200 кубиків бульйону. Під його третім - два кілограми висівок. Міркування, які роблять ці очевидно погані ідеї, не вкладаються в систему, і тому система невинно їх пропонує.

Якщо ви зможете повністю кодувати знання та цінності, які людина використовує, щоб оцінити ці плани в ШІ, то екстраполятивні системи такі ж безпечні, як і ця людина. Вони зможуть розглянути та відхилити невірні плани екстремальних планів та залишити вас правильним видом екстремальних планів.

Але якщо ви не можете, то має сенс не будувати екстраполятивного органу, що приймає рішення, а натомість будувати інтерполятивний. Тобто, замість того, щоб запитувати себе "як мені найкраще досягти мети X"? воно запитує себе "що б людина робила в цій ситуації?". Останнє може бути набагато гірше при здійсненні мети X, але у неї набагато менше ризику хвоста для пожертвування інших цілей.


2

Етика передбачає взаємозв'язок потреб двох або більше сторін. Як сказав Меттью Грейвс, якщо у ШІ бракує достатнього людського контексту (розуміння потреб), це спричинить, здавалося б, збочену етичну поведінку.

І будьмо чесними, деякі люди відрізали б чужі руки і поклали їх на тиск. Навіть найкращі з нас не зможуть співчувати потребам інших зі 100% точністю - у кращому випадку, ми здогадуємось. І тоді трапляються ті рідкісні ситуації, коли я насправді хочу, щоб ти відрізав мені руку і поклав її на тиску, можливо, щоб врятувати кохану людину.

Якщо ми могли б зробити щось, що може співчувати тому, що може знадобитися людині в будь-якій довільній ситуації, то ми створили б або A) штучний людський інтелект (AHI) (який міг бути більш-менш помилковим, як людський), або В) оракул, який може міркувати про всі можливі людські потреби набагато швидше, ніж людські часові шкали - у цьому випадку вам не знадобиться б свідоме ШІ, оскільки всі людські потреби та рішення могли бути попередньо обчислені за допомогою формальної специфікації, яка це, мабуть, абсурдно розглядати.


0

Ви також можете розглянути програмування як етичну частину дизайну. AI буде діяти на основі того, що йому було доручено як етично важливо чи ні. Він може / повинен бути навіть частиною параметрів, які формують процес пошуку рішень, що може забезпечити більш досконале та творче рішення.

Ми розуміємо основи етики в нормальних обставинах, але якщо ми не можемо передбачити, як поводиться будь-яка людина в етичній головоломці, ми можемо застосувати те, чого не зробив би ШІ.

Поки ми маємо контроль над механізмом, що приводить у рух ІІ, ми впевнені, що ми можемо вживати етичні несправності. Проблема полягає в самовихованні AI, здатному перекривати директиви. (Закони К.Ф. Асімова.)

Те, як творчий інтелект творчої творчості видається неважливим у цьому випадку.


-1

Багато цього залежить від широти розгляду. Наприклад, якими будуть середньо- та довгострокові наслідки бічного мислення? Робот міг би відірвати руку за тиск, але це означало б, що у людини більше немає руки, функціональне обмеження в кращому випадку, що людина може кровоточити і вмирати / бути сильно обмеженою, і що людина (і люди в загалом) обидва більше не співпрацюють і, ймовірно, прагнуть усунути робота. Люди можуть думати збоку, тому що розглядають ці речі - етика насправді є не що інше, як набір настанов, що охоплюють ці міркування. Також робот міг би бути розробленим для врахування цих зовнішніх ефектів.

Якщо все інше не вдається,

Закони Асимова: Робототехніка: (0. Робот може не нашкодити людству, або, бездіяльно, дозволити людству заподіяти шкоду.) 1. Робот може не травмувати людину або через бездіяльність дозволити людині прийти до шкода. 2. Робот повинен виконувати накази, надані людьми, за винятком випадків, коли такі накази суперечать Першому закону. 3. Робот повинен захищати власне існування до тих пір, поки такий захист не суперечить Першому чи Другому закону

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.