Чи можуть люди завдати шкоди свідомому чи розумовому ШІ?


9

Якщо свідомий ШІ можливий, чи можливий також той, хто знає, що вони роблять, щоб тортурити (або нашкодити) ШІ? Чи можна цього уникнути? Як?

Це питання стосується комп'ютерного інтелектуального інтелекту, а не роботів, які так само свідомі, як люди (це припущення щодо питання). Питання задається питанням, як злочин настільки важко простежити, як незаконне завантаження, але набагато гірше з етичної точки зору, можна було б запобігти. Зауважте, що незважаючи на те, що більшість людей приємно і співпереживають роботам, завжди є погані люди, і тому покладатися на загальну совість не вийде.

Відповіді:


9

Стаття « Діти, що б’ють робота», надихає нову систему маневру втечі заснована на двох дослідницьких роботах про експеримент в японському торговому центрі, який призвів до того, що діти не наглядали на роботів, що атакували роботів. Дослідницький документ, який вас цікавить, - це втеча від насильства над дітьми над соціальними роботами .

У цьому дослідницькому документі дослідники змогли запрограмувати роботів виконувати програмування для зменшення ймовірності зловживань дітьми. Якщо він виявляє дітей, робот запрограмований відступити в натовп дорослих (які можуть дисциплінувати дітей за потреби). Це сталося тому, що дослідники побачили, що тільки діти побили роботів у торговому центрі.

Хоча вони обговорюють тестування інших варіантів:

У цій роботі стратегія робота щодо запобігання зловживань полягала в тому, щоб «втекти», тобто перейти до місця, де менше шансів відбуватись зловживання. Можна було б запитати, чому робот не може подолати зловживання. У наших попередніх випробуваннях ми спробували кілька підходів, але ми виявили, що робота дуже важко переконати дітей не зловживати цим. Наприклад, ми багато в чому змінювали формулювання робота, використовуючи сильні слова, емоційні чи ввічливі вирази, але жодне з них не було успішним. Однією частково успішною стратегією був робот "фізично" штовхати дітей. Коли його шлях був перекритий, він би просто намагався продовжувати рух і поводився так, ніби він зіткнеться з дітьми і просунеться (під ретельним моніторингом з боку оператора людини). Ми спостерігали, що діти спочатку приймали прохання робота і підкорялися їм; але, дуже скоро вони дізналися, що вони сильніші за робота, тому вони можуть виграти, якщо натискати, а також, що можуть зупинити це, натиснувши перемикач бампера (прикріплений на робота для безпеки). Зрозумівши це, вони просто продовжували з жорстокою поведінкою. Очевидно, що наявність більш сильного робота представляла б проблему безпеки та соціального сприйняття, тому вирішення подібних образливих ситуацій залишається складним.


Але давайте розберемося з вашим питанням далі:

Якщо свідомий ШІ можливий і широко розповсюджений, чи не буде легко тому, хто знає, що вони роблять, щоб катувати ШІ?

Чому ви вважаєте подібні тортури помилковими ? Зрештою, можна стверджувати, що машина насправді не буде «переживати» біль, якщо ви її катуєте ... тож мусити бути морально добре тоді катувати машину. Це може відповісти так, ніби болить, але сумнівно, чи здатність імітувати емоційний стан, такий як "боліти", еквівалентна фактично перебуванню в цьому емоційному стані. Подивіться на питання, чи моделювання емоційних станів еквівалентне реально переживаним емоціям? для більшого обговорення на цю тему.

Ви можете зробити такий аргумент, але він на емоційному рівні не спрацює, оскільки більшість людей відчують співчуття до машини. Це може бути важко виправдати логічно (і це може базуватися на схильності людей до участі в антропоморфізмі ), але ми відчуваємо цю емпатію. Саме ця емпатія змусила вас задати це питання в першу чергу, змусила дослідників розібратися, як захистити робота від побиття, дала змогу поліцейським заарештувати п'яного японця за побиття робота SoftBank , і зробила багатьох людей засмучений через знищення автостопа . І цеяк уникнути зловживання ШІ - емпатією людини. Якщо більшість людей піклується про добробут машин, вони зроблять пріоритетом зупинку тих небагатьох людей, які вміють і бажають зловживати машинами.


EDIT: ОП відредагувало своє запитання, щоб уточнити, що він говорить про програмне забезпечення , а не про роботів. Для роботів ви можете покластися на антропоморфізм, щоб викликати певний рівень співчуття, але важко співчувати сирим рядкам коду.

Ви не збираєтесь припиняти зловживання алгоритмами. Відверто кажучи, оскільки алгоритми не схожі на нас, ми не збираємося поширювати таку саму емпатію, що і до роботів. Навіть чат-файти - це начебто іффі. Якщо ви могли б змусити людей співчувати рядкам коду (можливо, переконливим моделюванням емоцій та дихання), то застосовується вищевказана відповідь - люди антропоморфізують машину і придумують контрзаходи. Ми ще не на такому рівні, тому "припинення зловживань з ІП" буде низьким пріоритетом.

Тим не менш, деякі збої можуть бути запрограмовані, щоб обмежити зловживання, як це детально описано в цій темі про зловживання чатом - змусити бота відповідати нудно, щоб зловмисник відчував нудьгу і рухався до наступної цілі, відповідаючи назад на кривдника. в "битві розуму" або навіть просто блокуванні зловмисників від використання послуги.

Ці збої є холодним комфортом для тих, хто хоче запобігти зловживанням, а не реагувати на нього.

Також ... кривдник може із задоволенням навчитися програмувати ШІ, щоб потім зловживати вмістом свого серця. Нічого не можна зробити для того, щоб зупинити це, і будь-які можливі заходи для припинення зловживань (наприклад, моніторинг кожної людини, щоб переконатися, що вони не запрограмують ШІ на зловживання), ймовірно, спричинить більше шкоди, ніж вона вирішить.


TBH це насправді не відповідає на моє запитання, я думаю, я ще трохи відредагую це питання.
Руйнуючий лимон

1
@TariqAli Дякую за цю публікацію. Мені не було відомо про те, що стосується взаємодії дітей із соціальними роботами, яке я вважаю і веселим, і гострим. (Я пам’ятаю, що був маленькою дитиною у світі Діснея та «нападав» на споживаних Діснеївських персонажів, таких як Міккі Маус із-за надмірності обожнення.)
DukeZhou

6

Я пропоную вам поглянути на всі способи, якими ми намагалися не дати людям зловживати ДРУГИми людьми. Тут немає етичної сірої зони - всім зрозуміло, що це неправильно. І все ж люди щодня вбиваються, зґвалтуються та піддаються їхнім мільйонам.

Коли ми вирішимо цю проблему щодо людських жертв, то отримане рішення, швидше за все, буде спрацьовим і для ШІ.


Я був готовий сказати, чому це не стосується цілком, але ви, мабуть, правді все одно ...
Руйнуючий лимон

-1

ШІ та агресивна зовнішня перспектива не можуть бути скопійовані, програма не була освіченою або розроблена так, як наш природний інтелект Дані ІІ не можна порівнювати з гуманітарними розвідками відповідно до емоційно-соціальної думки процесії, розробленої дорослим досвідом, оскільки наш дизайн не запатентований як програмування AI Life, дубльованого через інженерну теорію, засновану лише на прикладі, не вистачить досвіду - це знання, одержане людиною, але діями з часом, а не діями, розробленими з точки зору емоційно-докторської інженерії. Однак AI ми можемо використовувати наші сценарії емоційної доставки концептуально із програмним забезпеченням, яке базується на прикладах людських дій, передбачує неприродну реакцію у випадку, якщо диктування діалогів реципієнта людини реагує, не реагуючи, як вони розуміють, що бот - це штучність, запатентована, розроблена на основі нашої емоційної доставки, яка написана на сценарії до розмови ми дістанемося діагностувати через причину та наслідки. Чи не розумний досвід, нам це потрібно для того, щоб AI ставав емоційним досвідченим ботом, якщо штучність емоції для бота відрізнятиме нашу дійсність. Натомість ми побачимо, які результати ми отримуємо на основі програмних ознак програмного забезпечення, які змушують бота реагувати на штучний досвід досвідченого інтелекту, розроблений концептуально з емоційною механікою програмного забезпечення, що ми не маємо поняття, які результати ми отримуємо штучно.


2
1. Будь ласка, відформатуйте цю публікацію краще, 2. Свідомий ШІ - це аксіома питання, а не питання
Руйнуючий лимон
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.