Чому етика не є більш інтегрованою в сучасні системи ШІ?


9

Я докторант з інформатики, і в даний час створюю сучасний огляд у програмах, зроблених в машинній етиці (багатодисциплінарна сфера, що поєднує філософію та AI, що розглядає створення явних етичних програм або агентів). Здається, що поле здебільшого містить теоретичні аргументи, і їх реалізація є відносно малою, хоча у цій галузі є багато людей з технічним досвідом.

Я розумію, що оскільки в роботі етики немає основної істини, і оскільки це частина філософії, можна заблукати, сперечаючись над тим, який тип етики слід застосовувати, і як це можна зробити найкраще. Однак у галузі інформатики зазвичай навіть намагатися просту реалізацію, щоб показати можливості чи обмеження вашого підходу.

З яких можливих причин так мало робиться явна реалізація етики в ШІ та експерименти з нею?


2
Приклади підходів можна знайти в цьому і в цьому оглядовому документі.
Сюзанна

Відповіді:


2

Це обов'язково відповідь високого рівня та дуже спекулятивна, але я думав над цим питанням, і ось мої думки:

  • Реалізація етичних алгоритмів вимагає математичної основи філософії, оскільки комп'ютери є різницевими двигунами

Після відомого провалу Рассела та Уайтхеда та теореми про незавершеність Геделя це може здатися проблематичним.

  • AI - це дуже застосована галузь, особливо сьогодні за умови тривалої перевірки глибокого навчання, і жодна компанія не хоче підходити до проблеми етики, якщо їх не змусять

Таким чином, ви бачите це в автомобілях, що рухаються самостійно, тому що інженерам не залишається іншого вибору, як не розібратися з проблемою. Навпаки, я не думаю, що ви побачите багато алгоритмічних фірмових торгових фірм, де бізнес - ефективність Парето , переживаючи етику чи соціальний вплив фінансових спекуляцій. (Рішенням "спалахів спалаху", здається, були правила тимчасової зупинки торгівлі, а не вирішення соціальної цінності високочастотних алгоритмічних торгів.) Більш очевидним прикладом є компанії з соціальних медіа, що ігнорують надзвичайну кількість зловживань інформацією (дезінформація та дезінформація), розміщена на їхніх сайтах, благаючи незнання, що є дуже підозрюваним у тому, що діяльність, породжена зловживанням інформацією, позитивно впливає на їхні підсумки

  • Прикладні поля, як правило, керуються прибутком

Основна директива корпорацій - повернути прибуток інвесторам. Не рідкість корпорації порушувати закон, коли очікується, що штрафи та штрафи будуть меншими, ніж прибуток, отриманий від незаконної діяльності. (Існує поняття етики в бізнесі, але культура взагалі, здається, судить людей і компаній, виходячи з того, скільки грошей вони заробляють, незалежно від засобів.)

  • Впровадження етики машин вивчається в тих сферах, де вони необхідні для продажу товару, а в інших місцях, це все ще значною мірою гіпотетично

Якщо суперінтелігенція еволюціонує і знищує людство (як попереджають нас про це дуже розумні люди з найвищими навичками математики), я відчуваю, що це буде функцією природи, де необмежена еволюція цих алгоритмів відбувається завдяки економічним драйверам, які зосереджуються на гіпер -партійні автомати в таких галузях, як фінансові спекуляції та автономна війна. По суті, переслідувати прибуток за будь-яку ціну, незалежно від наслідків.


Цікаво взяти, аспект прибутку! Я не думав про це, оскільки я був настільки зосереджений на причинах досліджень, але має сенс, що не існує тиску з боку промисловості, щоб продовжувати дослідження.
Сюзанна

@SuzanneTolmeijer Дякую Я вже кілька років заглиблююся в те, як теорія ігор підключається до етики. (Переважно рання філософія, де, наприклад, "баланс" було сказано як "добре" - баланс є функцією рівноваги і може бути точно визначений математично. Це стосується економіки, якщо стабільність, як правило, вважається оптимальною, де нестабільність потенційно катастрофічна.) Але я не єдиний донор ШІ, який торкнувся економічних факторів у цій галузі, та потенційних небезпек, які я називаю "гіперпартійним ШІ".
DukeZhou

1

Я відчуваю частину проблеми щодо того, чому на шляху етичного впровадження технологій AI / ML є дуже мало, просто тому, що немає необхідності або належного застосування теоретичних рамок.

Я маю на увазі, що не існує суттєвих способів застосувати це розуміння до алгоритмів та моделей, які не можуть взаємодіяти змістовно. У нас є така велика теоретична база щодо безпеки / етики ІС, оскільки це надзвичайно важливо. Нам потрібно розробити безпечні вказівки щодо впровадження сильного ШІ до його створення.

Деякі дуже зосереджені документи почали звужувати проблеми створення етичних / безпечних систем ШІ. Див. Конкретні проблеми безпеки AI


Здається, є потреба у чіткій етиці, принаймні багато дослідників закликають до просування явної етики (наприклад, Moor 2006 ). З точки зору належного застосування теоретичних рамок, ви можете мати рацію: реалізація передбачає певну інтерпретацію в деяких випадках, що може виявитися важким. Однак ви погоджуєтесь, що безпечні вказівки щодо ШІ важливі, а це означає практичні вказівки щодо того, що ми вважаємо «правильним» або «етичним» для наших машин. Ці вказівки означатимуть, як певним чином реалізувати етику в машинах.
Сюзанна

1

За допомогою методу наслідування найбільш відповідну поведінку можна інтегрувати у штучний інтелект. Штучний інтелект можна змінити, коли зміниться етична позиція. Він використовується з ідеологічною метою або для збору інформації. Не ясно, що таке робот.


1

Ми можемо взяти модель помилки до бухгалтера. Визнання упередженості та відмінності між продуктивністю в нейромережах може стати першим кроком. І тоді ми можемо обговорити, чи дозволяється таке виконання. Наскільки нам відомо, практикування етніки вимагає емпіричного та польового вивчення. ми не можемо просто взяти до обґрунтування та паперових нарисів, щоб визначити, що вчинки машин неправильно чи ні. Його можна додатково розділити на нещасні випадки, помилки або навіть помилки, створені розробниками.


Цікавий момент, який ви наголошуєте тут, - це, які заходи можна використовувати для тестування системи, і як визначити, чи працює система точно? Це щось не вистачає в цій галузі, і я вважаю, що це справді є частиною проблеми: як протестувати свою систему без основної правди? Які (розміри в) заходи мають сенс у контексті явних етичних алгоритмів? Без цього у вас немає можливості порівняти системи, що обмежує прогрес у цій галузі.
Сюзанна

1

Інтуїтивно кажучи, мабуть, так мало дослідження щодо впровадження етики ШІ, оскільки:

  1. Суспільству в цілому, здається, зручно погоджуватися, що сучасний стан машинного інтелекту недостатньо сильний, щоб його можна було вважати свідомим або розумним. Таким чином, нам не потрібно надавати йому етичних прав (поки що).

  2. Впровадження етичної поведінки в програму вимагає того, щоб комп’ютери були здатні інтерпретувати "сенс", який ми ще не знаємо, як це зробити.

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.