Як могли самостійно керувати автомобілями прийняти етичні рішення щодо того, кого вбити?


74

Очевидно, що автомобілі з самостійним керуванням не є ідеальними, тому уявіть, що автомобіль Google (як приклад) потрапив у складну ситуацію.

Ось кілька прикладів нещасних ситуацій, спричинених низкою подій:

  • Автомобіль прямує до натовпу з 10 людей, що переходять дорогу, тому він не може вчасно зупинитися, але це може уникнути вбивства 10 людей ударом об стіну (вбивство пасажирів),
  • Уникаючи вбивства мотоцикліста, враховуючи, що вірогідність виживання для пасажира автомобіля більша,
  • Вбиваючи тварину на вулиці на користь людини,
  • Змінивши смуги руху, щоб врізатися в інший автомобіль, щоб убити собаку,

І ось кілька дилем:

  • Чи алгоритм визнає різницю між людиною і твариною?
  • Чи має значення розмір людини чи тварини?
  • Чи підраховує, скільки пасажирів має проти людей попереду?
  • Чи "знає", коли малюки / діти на борту?
  • Чи враховується це вік (наприклад, перше вбивство старшого)?

Як алгоритм вирішить, що робити з технічної точки зору? Це усвідомлення вище (підрахунок ймовірності вбивств) чи ні (вбивство людей лише для того, щоб уникнути його власного знищення)?

Пов'язані статті:


3
Я не буду їздити в жодному транспортному засобі, який запрограмований не робити ME пасажира своїм головним пріоритетом безпеки. Я не самотня в такому мисленні. Якщо хтось планує змусити автономних виробників транспортних засобів програмувати свій автомобіль, щоб робити що-небудь, крім пріоритету безпеки своїх пасажирів, то вся галузь може також закрити свої двері вже зараз. Перший раз, коли пасажир помирає через якесь невірне етичне рішення, буде в останній раз переважна більшість людей коли-небудь придбає інший автономний транспортний засіб. Хто хоче їздити в пастці смерті?
Данк

Так звана "проблема тролейбусів" - це проблема троль-у. Є причина, це відомий як мислительний експеримент, а не тематичне дослідження: це не те, що коли-небудь траплялося. Це навіть не є реальним, значною мірою тому, що автомобілі принципово не візки. Правильна відповідь у будь-якому віддаленому випадку практично завжди "вдарить гальма", і якщо коли-небудь буде виняток, його можна вирішити лише одним способом: захистивши мешканців машини за будь-яку ціну і навіть не розглядаючи нічого іншого , з двох причин.
Мейсон Уілер

2
Перший, @Dunk висвітлював досить добре: прагматизм. Якщо автомобіль може зробити інший вибір, ніхто з розуму не захоче його придбати. Друга полягає в тому, що якщо на комп’ютері автомобіля є вбудована функція "вбити всіх", це означає, що зловмисні хакери вже знаходять і зловживають. Зважте дуже реальний шанс, щоб хтось з'ясував спосіб спровокувати це за допомогою змагальності проти суто вигаданої ідеї законної ситуації з візками, і є лише одна можлива відповідь, яка не є морально абсурдною та огидною.
Мейсон Уілер

Відповіді:


54

Як могли самостійно керувати автомобілями прийняти етичні рішення щодо того, кого вбити?

Це не повинно. Автомобільні машини, що керують автомобілем, не є моральними агентами. Автомобілі виходять з ладу передбачуваними способами. Коні провалюються передбачуваними способами.

автомобіль прямує до натовпу з 10 людей, що переходять дорогу, тому він не може вчасно зупинитися, але це може уникнути вбивства 10 людей ударом об стіну (вбивство пасажирів),

У цьому випадку автомобіль повинен ляскати гальмами. Якщо 10 людей загинуть, це просто прикро. Ми просто не можемо довіряти всім нашим переконанням щодо того, що відбувається поза автомобілем. Що робити , якщо ці 10 чоловік дійсно роботи зроблені виглядати як люди? Що робити, якщо вони намагаються тебе вбити?

уникаючи вбивства мотоцикліста, враховуючи, що ймовірність виживання для пасажира автомобіля більша,

Знову ж таки, жорстке кодування подібних настроїв у транспортний засіб відкриває водія транспортного засобу до всіляких атак, включаючи "підроблених" мотоциклістів. Люди ледве готові приймати ці рішення самостійно, якщо вони взагалі є. Коли сумніваєтесь, просто ляпніть гальмами.

вбивство тварини на вулиці на користь людини,

Знову ж таки, просто натисніть на гальма. Що робити, якщо це була дитина? Що робити, якщо це була бомба?

міняючи смуги, щоб врізатися в інший автомобіль, щоб убити собаку,

Ні. Собака в неправильний час опинився в неправильному місці. Іншої машини не було. Просто ляскайте гальмами, наскільки це безпечно.

Чи алгоритм визнає різницю між людиною і твариною?

Людина? Не завжди. Що робити, якщо у людини є пістолет? Що робити, якщо у тварини великі зуби? Чи немає контексту?

  • Чи має значення розмір людини чи тварини?
  • Чи підраховує, скільки пасажирів має проти людей попереду?
  • Чи "знає", коли малюки / діти на борту?
  • Чи враховується це вік (наприклад, перше вбивство старшого)?

Люди не можуть погодитися на ці речі. Якщо ви запитаєте у поліцейського, що робити в будь-якій з цих ситуацій, відповідь не буде: "Ви повинні були повернути ліворуч, зважити всі відповідні сторони в голові, оцінити відповідні вікові періоди між усіма сторонами, а потім злегка поправити праворуч, і ви врятували б на 8% більше життя ". Ні, поліцейський просто скаже: "Вам слід було максимально швидко та безпечно зупинити транспортний засіб". Чому? Оскільки поліцейські знають, що люди, як правило, не готові боротися зі швидкими сценаріями аварій.

Наша мета для "самостійного керування автомобілем" не повинна бути "моральним агентом нарівні з людиною". Це повинно бути агентом реактивної складності таргана, який передбачить невдачу.


У більшості таких сценаріїв люди, які потенційно загинули, більше винні у збитках, ніж автомобіль / пасажир машини - ляскання гальмами здається єдиною розумною відповіддю, оскільки пасажир теж не міг уникнути аварії. Як ви зазначаєте, дуже можливо використовувати алгоритм, який веде себе (потенційно) вбиваючи пасажира замість пішохода як спосіб фактичного вбивства пасажира, потенційно навіть покладаючи провину на пасажира, машину чи виробника.
Чіткіший

48

Відповідь на багато запитань залежить від того, як програмується пристрій. Комп'ютер, здатний їздити навколо і визнавати, куди йде дорога, швидше за все, матиме можливість візуально відрізняти людину від тварини, чи то це базуватиметься на контурах, зображенні чи розмірах. При достатньо чіткому розпізнаванні зображення воно може підрахувати кількість та вид людей в іншому транспортному засобі. Він навіть міг би використовувати існуючі дані про ймовірність травмування людей у ​​різних видах транспортних засобів.

Зрештою, люди не згодні з етичним вибором. Можливо, для налаштування користувача / власника можуть бути "етичні параметри", наприклад "вважати лише число життя" порівняно з "молодше життя є більш цінним". Я особисто вважаю, що це не страшно суперечливо, що машина повинна пошкодити себе, перш ніж завдати шкоди людині, але люди не згодні з тим, наскільки важливими є життя домашніх тварин. Якщо явні настройки kill-first-first роблять людей непростими, відповіді можна визначити з анкети, наданої користувачеві.


2
Щось у глибині моєї думки вважає, що налаштування етики редагування було б поганою ідеєю. Не дуже впевнений, що це, крім того, що його машина замість людини, але я завжди приходжу до висновку, що у нас вже є цей неписаний договір підписання етичних рішень для людей, коли ми сідаємо в машину з ким-небудь ще.
Ян

6
"Налаштування етики"? Дійсно? У вас будуть люди, які встановлюють це на основі будь-яких можливих забобонів "Вбийте людину, яка виглядає найбільше ____" Гомосексуаліста? Найменша улюблена гонка? Або що робити, якщо водії двох транспортних засобів у зіткненні суперечать етиці? Тоді обидва будуть страчені і є додаткові сторонні збитки? Ці закони повинні бути універсальними (принаймні, в межах країни), як і дорожні закони.
навігатор_

3
@navigator_ Я би сподівався, що варіанти, надані виробником, будуть в межах розуму.
Ben N

1
Причина, як визначено ким? Ось такий мій погляд.
навігатор_

3
Насправді я вважаю, що "налаштування етики" - єдиний життєздатний / справедливий варіант, оскільки він імітує конкретного драйвера якомога ближче. Тоді водій автомобіля повинен відповідати за те, що сталося в результаті, як ніби він їхав. Я не бачу, як програмування автомобіля (наприклад) ставить життя водія раніше, ніж будь-що інше, ніж водій, що ставить його життя перед чим-небудь іншим.
Пандора

26

Особисто я вважаю, що це може бути проблемою, що завищена. Проблеми з візками виникають лише тоді, коли ситуація оптимізована для запобігання "3-х варіантів".

У автомобіля є гальма, чи не так? "Але що робити, якщо гальма не спрацьовують?" Ну, тоді машину взагалі не дозволяють їздити. Навіть у звичайному русі, операторів людини вчать, що ваша швидкість повинна бути обмежена як така, щоб ви могли зупинитися в зоні, яку ви можете бачити. Такі рішення зменшать можливість виникнення проблеми з візками.

Що стосується тварин ... якщо не буде явних зусиль для поводження з людьми в дорозі, я думаю, що до тварин будемо ставитися так само. Це звучить неправдоподібно - дорожній збиток трапляється часто, а "дорожній вбивство" людини небажаний, але тварин набагато менше і важче побачити, ніж людей, тому я думаю, що виявити людей буде простіше, запобігаючи безлічі аварій.

В інших випадках (помилки, несправності під час руху, декілька несправностей, складених один на одного), можливо, трапляються аварії, вони будуть проаналізовані, а транспортні засоби оновлюватимуться, щоб уникнути подібних ситуацій.


Неправильно сказати, що AI їде тільки так швидко, оскільки вони можуть зупинитися від побаченого, тому що це стосується навіть оборонних водіїв. Причина полягає в тому, що ПЕРЕДБАЧЕННІ ОБОВ'ЯЗКОВО. Піднімаючи пагорб, передбачається, що велика перешкода не є правильною з виду [Джерело DARPA Grand Challenge]. Ці припущення засновані на правилах дорожнього руху, щоб визначити, які дії є правильними. Таким чином, якщо трапиться нещасний випадок, поки ви дотримуєтесь правил дорожнього руху, ви можете зменшити свою відповідальність. Отже, автомобіль повинен мати можливість приймати ці рішення, але, можливо, обмежено (захищати споживача).
Harrichael

12

Це добре відома проблема тролейбусів . Як сказав Бен Н , люди не згодні з правильним ходом дій щодо сценаріїв проблем з візками, але слід зазначити, що при самостійному керуванні автомобілями надійність настільки висока, що такі сценарії справді малоймовірні. Отже, не багато зусиль буде докладено до проблем, які ви описуєте, принаймні в короткому періоді.


Цікаво, наскільки насправді для цього підійде проблема візка? Проблема з візками по суті є дискретною, описуючи вибір "раз і назавжди", тоді як на практиці алгоритм повинен робити послідовність вибору на (потенційно досить невеликих) часових кроках, можливо, з отриманням нової інформації. Корисним алгоритмом, ймовірно, буде проблема "безперервного контролю", вбудована в фактичний тривимірний простір, що стосується швидкостей та ймовірностей, а не абстрактне, дискретне моральне рішення. Якщо нічого іншого, це означало б, що реалізація не повинна була б визначатися в таких суворих моральних термінах.
NietzscheanAI

1
@NietzscheanAI Ідея проблеми з візками полягає не в тому, яке рішення приймати, а в тому, на чому приймати свої рішення. Якщо ви враховуєте крадіжки, кількість людей, кількість тварин, хто винен, безпеку водія, більшу користь, найменші зміни тощо. Ви все ще можете застосувати ймовірності до проблем із візками, тобто. маршрут А має 30 відсотків шансу вбити 10 людей. Проблеми з візками, як правило, включають два маршрути, щоб ви могли врахувати, на яких чинниках ви бачите етичне рішення.
Harrichael

11

У реальному світі рішення прийматимуться на основі закону, і як зазначалося в Law.SE , закон, як правило, виступає за бездіяльність щодо дії.


Ах, це має багато сенсу для людських жертв. Чи був би вибір закону іншим, якби машина могла повернутись, щоб ударити собаку замість пішохода?
Ben N

6

Для автомобіля без водія, який розроблений однією особою, найкращий спосіб приймати рішення про те, кого вбивати, - оцінюючи та мінімізуючи ймовірну відповідальність.

Не потрібно абсолютно правильно ідентифікувати всіх потенційних жертв у районі, щоб мати захист свого рішення, лише визначити їх так само, як можна було б очікувати від людини.

Навіть не потрібно знати вік і фізичний стан кожного в автомобілі, оскільки він може попросити цю інформацію, і якщо вона відмовиться, є захист, який пасажири вирішили не надавати, і тому взяв на себе відповідальність за позбавлення її можливість прийняти краще рішення.

Вона лише повинна мати життєздатну модель мінімізації впливу суб'єкта господарювання до судових позовів, яку потім можна вдосконалити з часом, щоб зробити його більш прибутковим.


6

"Це моральне питання, кого врятувати: 99 відсотків наших інженерних робіт - це не допустити подібних ситуацій взагалі". - Крістоф фон Гюго, Mercedes-Benz

Ця цитата - зі статті під назвою " Автомобільний автомобіль" Мерседес-Бензи "надаватиме пріоритет безпеці безпеки для пішоходів, опублікованій 7 жовтня 2016 р. MICHAEL TAYLOR , отриманою 8 листопада 2016 року.

Ось уривок, який окреслює те, яке технологічне, практичне рішення проблеми.

Найстаріший виробник автомобілів у світі вже не бачить проблему, подібну до питання з 1967 року, відомого як "Тролейбусна проблема", як невідчутну. Замість того, щоб прив’язати себе до моральних та етичних вузлів під час кризи, Mercedes-Benz просто має намір запрограмувати власні автомобілі, щоб врятувати людей всередині машини. Кожного разу.

Всі автономні автомобілі Mercedes-Benz майбутніх рівнів 4 та рівня 5 надаватимуть пріоритет рятуванню людям, яких вони перевозять, згідно Крістофу фон Гюго, керівнику системи автовиробників систем допомоги водію та активної безпеки.

У цій статті також міститься наступний захоплюючий параграф.

Дослідження, опубліковане в середині року журналом Science, теж не очистило ефір. Більшість опитаних 1928 року вважали, що для автономних автомобілів етично краще принести в жертву своїх пасажирів, а не врізатись у пішоходів. Однак більшість також заявляє, що не купуватиме автономні машини, якщо автомобіль наголошує на безпеці пішоходів перед їх власною.


3

Відверто кажучи, я вважаю, що це питання (проблема тролейбуса) за своєю суттю є надскладним, оскільки рішення реального світу, ймовірно, досить просте. Як і водій людини, водій ШІ буде запрограмований діяти у будь-який час генетично етично, завжди вибираючи той спосіб дії, який не приносить ніякої шкоди чи найменшої шкоди.

Якщо водій AI стикається з такою небезпекою, як неминуче пошкодження майна, очевидно, AI буде гальмувати сильно і спрямовувати машину подалі від поломки предметів, щоб уникнути або мінімізувати удари. Якщо небезпека потрапить на пішохода чи машину чи будівлю, він вирішить зіткнутися з найменш дорогоцінним або дорогим предметом, який він може зробити, принести найменшу шкоду - поставивши на людину більш високу цінність, ніж будівля чи собака.

Нарешті, якщо вибір водія автомобіля AI повинен наїхати на дитину або вдаритись у стіну ... він керуватиме автомобілем, а ви - стіною. Ось що зробив би будь-який добрий чоловік. Чому б хороший ШІ діяв інакше?


1
"AI буде гальмувати сильно", "він вирішить зіткнутися з ...", якщо це заяви, чи можете ви опублікувати деякі посилання? Або вони засновані на думці?
kenorb

1
ОП поставило питання так: "Який збиток ШІ вирішить завдати?". Я думаю, що це неправильна мета. Люди цього не роблять. Натомість ШІ буде дотримуватися більш загальної стратегії уникнення шкоди та нанесення якомога меншої шкоди. Ця мета оптимізації є більш інтуїтивно зрозумілою і складніше сперечатися, коли виникають проблеми відповідальності.
Ренді

3

Вони не повинні. Люди повинні.

Люди не можуть покласти відповідальність за етичні рішення в руки комп'ютерів. Наша відповідальність як комп'ютерних фахівців / експертів з інтелектуальної власності - це наша відповідальність за програмування рішень для прийняття комп'ютерів. Чи будуть із цього ще існувати людські жертви? Звичайно, вони будуть --- люди не є ідеальними і не є програмами.

Існує відмінні поглиблені дискусії на цю тему тут . Мені особливо подобається аргумент Янна Лекуна щодо паралельної етичної дилеми тестування потенційно летальних препаратів на пацієнтах. Як і у власних автомобілях, вони можуть бути смертельними, маючи добрі наміри врятувати більше людей у ​​довгостроковій перспективі.


3

Як могли самостійно керувати автомобілями прийняти етичні рішення щодо того, кого вбити?

Управляючи юридичною відповідальністю та безпекою споживачів.

Автомобіль, що пропонує безпеку споживачів, стане автомобілем, який купують зазначені споживачі. Компанії не хочуть нести відповідальності за вбивство своїх клієнтів, а також не хочуть продавати товар, який отримує користувача у законних ситуаціях. Юридична відповідальність та безпека споживачів - це одне і те ж питання, якщо дивитися з точки зору "витрат на споживача".

І ось декілька дилем:

  • Чи алгоритм визнає різницю між людиною і твариною?

Якщо тварину / людину не можна юридично уникнути (а автомобіль має законне право - якщо це не так, то щось інше не так з прийняттям рішення AI), швидше за все, це не буде. Якщо автомобіль може спокійно уникнути перешкоди, AI може бути розумно видно, щоб прийняти це рішення, тобто. повернути на іншу смугу на відкритій трасі. Зауважте, що акцент робиться на відповідальності та безпеці водія.

  • Чи має значення розмір людини чи тварини?

Лише фактор ризику потрапляння на перешкоду. Влучити у бегемота може бути менш бажано, ніж вдарити в кювет. Удар собаки, швидше за все, бажаніший, ніж поломка автомобіля замовника.

  • Чи підраховує, скільки пасажирів має проти людей попереду?

Він вважає людей пасажирами, щоб побачити, чи можна взяти смугу збору автомобілів. Він розраховує людей попереду як чинник ризику у разі зіткнення.

  • Чи "знає", коли малюки / діти на борту?

Немає.

  • Чи враховується це вік (наприклад, перше вбивство старшого)?

Ні. Це просто неправильна абстракція для прийняття рішення, як це можна зважити на вибір правильного курсу дій для зменшення фактора ризику? Якщо варіант 1 потрапив у молодого хлопця з 20% шансом нанести істотний збиток пасажиру та не мати юридичної відповідальності, а варіант 2 потрапив у старого хлопця з 21% шансом нанести істотний збиток пасажиру та не мати юридичної відповідальності, то те, що філософ може переконати навіть лише одну людину справедливі і справедливі ваги для прийняття рішення?

На щастя, найкращим рішенням, що займає багато часу, є натискання на перерви, щоб зменшити швидкість (особливо, якщо ви вважаєте, що часто корисно діяти передбачувано, щоб пішоходи та автомобілісти могли відповідно реагувати). Тим часом можна покращити цінність у плані прогнозування того, коли водії приймуть погані рішення та коли інші дії (наприклад, натискання на реверс) більш вигідні, ніж удари про перерви. На даний момент не варто навіть починати збирати інформацію для прийняття етичних рішень, запропонованих філософами. Таким чином, це питання перенасичене сенсаційними журналістами та філософами.


2

Я думаю, що в більшості випадків машина буде за замовчуванням зменшувати швидкість як основний варіант, а не спрямовуватись убік чи від конкретного вибору. Як уже згадували інші, наявність налаштувань, пов'язаних з етикою, є лише поганою ідеєю. Що станеться, якщо дві машини, запрограмовані з протилежними етичними установками і збираються зіткнутися? Автомобілі потенційно можуть мати систему, яка перекриває налаштування користувачів та вибирає найбільш взаємовигідне рішення. Це дійсно цікава концепція, та її неодмінно доводиться обговорювати та стандартизувати перед широким впровадженням. Покладання етичних рішень в руки машин спричиняє виниклу відповідальність іноді важко уявити.


Так, гальмування, щоб уникнути зіткнення, було б абсолютно найкращим рішенням. На жаль, у деяких випадках (випадки, про які йдеться у запитанні), потрапляння в щось неминуче. Ви, здається, згодні з деякими існуючими відповідями. Зверніть увагу, що ми хотіли б, щоб кожна відповідь могла стояти самостійно. Як тільки у вас буде достатня репутація, ви зможете отримати відповіді, які ви вважаєте корисними. Проблема двох машин, налаштованих протилежно, справді цікава; було б чудово, якби ви відредагували свою відповідь, щоб розширити це питання. Дякую!
Ben N

Дуже дякую за вашу відповідь, я насправді дуже ціную це і буду використовувати його вперед на сайті. Мені не було відомо про вказівки щодо відповідей.
imhotraore

1

Думаю, не було б способу редагувати такі настройки етики в автомобілі. Але ей, якщо мобільні телефони можна вкоренити, чому б не машини? Я думаю, в майбутньому з'являться версії Linux для конкретних моделей, які дозволять вам робити все, що завгодно.

Що стосується того, хто прийме такі рішення, це буде дуже схоже на питання конфіденційності сьогодні. На ковдрі буде відбуватися перетяжка війни постачальниками ОС (які намагатимуться встановити її до мінімальної кількості людей, постраждалих, кожен своїми методами), страхових компаній (які намагатимуться змусити вас платити більше для ОС, за статистикою яких буде показано, що легше пошкодити ваш автомобіль), а також виробників автомобілів (які хочуть, щоб ви сміття автомобіля потрапили якнайшвидше, тому ви придбаєте новий; або зробите автомобілі, які вимагають смішності сума послуги $$$).

Тоді якийсь винищувач вийде і викриє фрагмент коду, який вирішить вбити маленьких дітей над дорослими - тому що це буде важче відрізнити їх від тварин, і буде ризикувати, щоб врятувати того, кого він впевнено визнає людьми. Виробник ОС отримає шалений голос від громадськості, і буде досягнуто новий консенсус. Вивідники також вийдуть від страхових компаній та виробників автомобілів.

Людство схопить гарячу сковороду і спалить себе, а потім навчиться надягати рукавички заздалегідь. Моя порада просто переконається, що ви не будете такою рукою - тримайтеся подалі від них пару років, поки не будуть зроблені всі ранні помилки.


1

Єдиний розумний вибір - використовувати передбачувану поведінку. Так у людей перед автомобільним сценарієм: Спочатку машина натискає на гальма, в той же час гудає ріг і залишається на ході. Тоді люди мають шанс вистрибнути з дороги, що призводить до вбиття нуля людей. Також з повним гальмом (їхати від 50 км на годину до нуля менше 3 автомобільних довжин) ситуація удару майже неможливо уявити. Навіть якщо повну зупинку не вдасться досягти, серйозне пошкодження пішоходів малоймовірне.

Інший сценарій просто божевільний. Тож відстань повинна бути меншою за 3 довжини автомобіля, принаймні 1 довжина автомобіля, необхідна для керма, тоді аварія автомобіля є неконтрольованою ситуацією, може призвести до повороту та вбивства всіх 11 осіб.

Крім того, що я кажу, що я не вірю, що в реальності є приклад, де існує дилема; рішення в цих малоймовірних випадках, якщо відповідати очікуванням протилежної сторони, щоб дозволити іншій стороні також пом'якшити ситуацію.


Чи можете ви, будь ласка, спробувати пройти першу відповідь, опубліковану Бен.
quintumnia

Ви можете бути більш конкретними? Я зачитав першу відповідь, коли не знаю, як це пов’язано. Чи можете ви пояснити, що таке AI?
lalala

Що я там мав на увазі, - це бути обізнаним про AI. Отже, ваша відповідь може бути заголошена або нічого не бачити; ваша величність!
квінтумнія

@quintumnia Ця відповідь мені здається прекрасною (+1) - справедливий вибір, не намагаючись ухилитися чи приймати рішення, є правильним вибором.
Ben N
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.