Стаття « Діти, що б’ють робота», надихає нову систему маневру втечі заснована на двох дослідницьких роботах про експеримент в японському торговому центрі, який призвів до того, що діти не наглядали на роботів, що атакували роботів. Дослідницький документ, який вас цікавить, - це втеча від насильства над дітьми над соціальними роботами .
У цьому дослідницькому документі дослідники змогли запрограмувати роботів виконувати програмування для зменшення ймовірності зловживань дітьми. Якщо він виявляє дітей, робот запрограмований відступити в натовп дорослих (які можуть дисциплінувати дітей за потреби). Це сталося тому, що дослідники побачили, що тільки діти побили роботів у торговому центрі.
Хоча вони обговорюють тестування інших варіантів:
У цій роботі стратегія робота щодо запобігання зловживань полягала в тому, щоб «втекти», тобто перейти до місця, де менше шансів відбуватись зловживання. Можна було б запитати, чому робот не може подолати зловживання. У наших попередніх випробуваннях ми спробували кілька підходів, але ми виявили, що робота дуже важко переконати дітей не зловживати цим. Наприклад, ми багато в чому змінювали формулювання робота, використовуючи сильні слова, емоційні чи ввічливі вирази, але жодне з них не було успішним. Однією частково успішною стратегією був робот "фізично" штовхати дітей. Коли його шлях був перекритий, він би просто намагався продовжувати рух і поводився так, ніби він зіткнеться з дітьми і просунеться (під ретельним моніторингом з боку оператора людини). Ми спостерігали, що діти спочатку приймали прохання робота і підкорялися їм; але, дуже скоро вони дізналися, що вони сильніші за робота, тому вони можуть виграти, якщо натискати, а також, що можуть зупинити це, натиснувши перемикач бампера (прикріплений на робота для безпеки). Зрозумівши це, вони просто продовжували з жорстокою поведінкою. Очевидно, що наявність більш сильного робота представляла б проблему безпеки та соціального сприйняття, тому вирішення подібних образливих ситуацій залишається складним.
Але давайте розберемося з вашим питанням далі:
Якщо свідомий ШІ можливий і широко розповсюджений, чи не буде легко тому, хто знає, що вони роблять, щоб катувати ШІ?
Чому ви вважаєте подібні тортури помилковими ? Зрештою, можна стверджувати, що машина насправді не буде «переживати» біль, якщо ви її катуєте ... тож мусити бути морально добре тоді катувати машину. Це може відповісти так, ніби болить, але сумнівно, чи здатність імітувати емоційний стан, такий як "боліти", еквівалентна фактично перебуванню в цьому емоційному стані. Подивіться на питання, чи моделювання емоційних станів еквівалентне реально переживаним емоціям? для більшого обговорення на цю тему.
Ви можете зробити такий аргумент, але він на емоційному рівні не спрацює, оскільки більшість людей відчують співчуття до машини. Це може бути важко виправдати логічно (і це може базуватися на схильності людей до участі в антропоморфізмі ), але ми відчуваємо цю емпатію. Саме ця емпатія змусила вас задати це питання в першу чергу, змусила дослідників розібратися, як захистити робота від побиття, дала змогу поліцейським заарештувати п'яного японця за побиття робота SoftBank , і зробила багатьох людей засмучений через знищення автостопа . І цеяк уникнути зловживання ШІ - емпатією людини. Якщо більшість людей піклується про добробут машин, вони зроблять пріоритетом зупинку тих небагатьох людей, які вміють і бажають зловживати машинами.
EDIT: ОП відредагувало своє запитання, щоб уточнити, що він говорить про програмне забезпечення , а не про роботів. Для роботів ви можете покластися на антропоморфізм, щоб викликати певний рівень співчуття, але важко співчувати сирим рядкам коду.
Ви не збираєтесь припиняти зловживання алгоритмами. Відверто кажучи, оскільки алгоритми не схожі на нас, ми не збираємося поширювати таку саму емпатію, що і до роботів. Навіть чат-файти - це начебто іффі. Якщо ви могли б змусити людей співчувати рядкам коду (можливо, переконливим моделюванням емоцій та дихання), то застосовується вищевказана відповідь - люди антропоморфізують машину і придумують контрзаходи. Ми ще не на такому рівні, тому "припинення зловживань з ІП" буде низьким пріоритетом.
Тим не менш, деякі збої можуть бути запрограмовані, щоб обмежити зловживання, як це детально описано в цій темі про зловживання чатом - змусити бота відповідати нудно, щоб зловмисник відчував нудьгу і рухався до наступної цілі, відповідаючи назад на кривдника. в "битві розуму" або навіть просто блокуванні зловмисників від використання послуги.
Ці збої є холодним комфортом для тих, хто хоче запобігти зловживанням, а не реагувати на нього.
Також ... кривдник може із задоволенням навчитися програмувати ШІ, щоб потім зловживати вмістом свого серця. Нічого не можна зробити для того, щоб зупинити це, і будь-які можливі заходи для припинення зловживань (наприклад, моніторинг кожної людини, щоб переконатися, що вони не запрограмують ШІ на зловживання), ймовірно, спричинить більше шкоди, ніж вона вирішить.