Навіщо нам потрібний пояснювальний ШІ?


56

Якщо початковою метою розвитку ШІ було допомогти людині у виконанні деяких завдань, і ця мета все-таки дотримується, чому ми повинні дбати про її пояснення? Наприклад, при глибокому навчанні, доки інтелект допомагає нам якнайкраще їх здібності і ретельно приймає свої рішення, чому ми повинні знати, як працює його інтелект?


15
Що відбувається, коли ШІ не дає тобі відповіді? Як ви знаходите проблему? Як ви перевіряєте рішення, якщо ви не розумієте міркування? Як ви переконаєтесь, що ми не перетворимось на скріпки? :)
Луань

8
Не розміщуючи це як відповідь, оскільки я підозрюю, що він не відповідає стандартам, але, припустимо, ми запитуємо AI, як виправити проблеми з кліматом, і він говорить про "забруднення океану". Можливо, це правильно, і є якийсь надуманий спосіб, який виправляє речі. Можливо, розробник допустив помилку, і фактичний вихід повинен був "забруднити океан". Як ви маєте намір розрізнити це двоє, якщо не дуже детально пояснюючи міркування ШІ?
Площа

5
Чи потрібна будь-яка відповідь на це питання, поза загальними знаннями існування змагальних прийомів? Зараз можна зробити невеликі перетворення вхідних даних, що створюють масові непропорційні зміни у виході. У таких завданнях, як візуальне розпізнавання об'єктів, в яких результати можна легко перевірити на предмет справжнього інтелекту, результати здаються безглуздими і шаленими, і вказують, що те, що AI "бачить", є чимось дуже відмінним від того, що ми бачимо . Якщо ШІ не в змозі пояснити себе в таких випадках, його корисність різко знижується.
Мейсон Уілер

1
Хоча ваше запитання ґрунтується на необхідності пояснення ШІ, я також хотів би запропонувати прочитати, яке кидає виклик цій точці зору - я думаю, що тут є дуже хороші моменти. Крім усього іншого, одна з причин необхідності пояснення може бути пов'язана з нашою потребою людини в поясненні систем навколо нас, а потім і з нашою вищою довірою до систем, які ми розуміємо, навіть якщо ці системи не відповідають іншим, які ми НЕ розуміємо. Сподіваюсь, він додає матеріалу для роздумів - hackernoon.com/…
Elisio Quintino

2
Це може бути цікавим додатковим розбором. Люди намагалися побудувати класифікатор Хаскі проти Вовка, а потім зрозуміли, що мережа зосереджена не на тварині, а на тлі, оскільки всі зображення зі снігом на задньому плані були вовками. Іншими словами, якщо ви виявите автомобіль, ви повинні бути впевнені, що це через автомобіль на зображенні, а не через знак зупинки збоку зображення.
jaaq

Відповіді:


64

Як стверджують Selvaraju et al. , є три етапи еволюції ШІ, у всіх яких інтерпретація корисна.

  1. На ранніх стадіях розвитку ШІ, коли ШІ слабкіший за продуктивність людини, прозорість може допомогти нам побудувати кращі моделі . Це може краще зрозуміти, як працює модель, і допоможе нам відповісти на кілька ключових питань. Наприклад, чому модель працює в одних випадках, а не в інших, чому деякі приклади плутають модель більше, ніж інші, чому такі типи моделей працюють, а інші - ні.

  2. Коли AI перебуває нарівні з показниками продуктивності людини, а моделі ML починають впроваджуватися в декількох галузях, це може сприяти формуванню довіри до цих моделей. Я трохи докладніше розповім про це пізніше, бо вважаю, що це найважливіша причина.

  3. Коли AI значно перевершує людину (наприклад, AI грає в шахи або Go), це може допомогти з машинним навчанням (тобто, навчитися за допомогою машини, як покращити продуктивність людини у цій конкретній задачі).

Чому довіра така важлива?

По-перше, дозвольте навести кілька прикладів галузей, де довіра є найважливішою:

  • У галузі охорони здоров’я уявіть собі глибоку нейронну мережу, яка б проводила діагностику конкретного захворювання. Класичний чорний ящик NN просто виводить двійкове "так" або "ні". Навіть якщо це може перевершити людей за чистою передбачуваністю, це було б абсолютно марно на практиці. Що робити, якщо лікар не погодився з оцінкою моделі, чи не повинен він знати, чому модель зробила такий прогноз; можливо, він побачив щось, що пропустив лікар. Крім того, якщо вона поставила помилковий діагноз (наприклад, хвору людину класифікували як здорову та не отримала належного лікування), хто несе відповідальність: користувач моделі? лікарня? компанія, яка розробила модель? Нормативно-правова база навколо цього трохи розмита.

  • Ще один приклад - автомобілі з самостійним керуванням. Виникають ті ж запитання: якщо в аварії виникла машина, виною якої є: водія? виробник автомобіля? компанія, яка проектувала AI? Юридична підзвітність є ключовою для розвитку цієї галузі.

Фактично ця відсутність довіри, на думку багатьох, перешкоджає прийняттю ШІ у багатьох сферах (джерела: 1 , 2 , 3 ). Хоча існує діюча гіпотеза про те, що з більш прозорими, інтерпретованими або пояснюваними системами користувачі зможуть краще зрозуміти і тому довіряти розумним агентам (джерела: 1 , 2 , 3 ).

У кількох реальних додатках ви не можете просто сказати, що "це працює 94% часу". Вам також може знадобитися надати обґрунтування ...

Постанови уряду

Кілька урядів повільно приступають до регулювання ІС, і прозорість, здається, є в центрі всього цього.

Першим, хто рухається в цьому напрямку, є ЄС, який встановив декілька вказівок, де зазначено, що ШІ повинен бути прозорим (джерела: 1 , 2 , 3 ). Наприклад, GDPR стверджує, що якщо дані людини підлягають "автоматизованим системам прийняття рішень" або "профілюванню", то він має право на доступ

"змістовна інформація про логіку"

( Стаття 15, GDPR ЄС )

Зараз це трохи розмито, але явно є намір вимагати певної форми пояснення від цих систем. Загальна ідея, яку намагається передати ЄС, полягає в тому, що "якщо у вас є автоматизована система прийняття рішень, яка впливає на життя людей, вони мають право знати, чому було прийнято певне рішення". Наприклад, банк має ІП, який приймає та відхиляє заявки на позику, тоді заявники мають право знати, чому їх заяву було відхилено.

Підсумовуючи...

Пояснювані ІС необхідні, оскільки:

  • Це дає нам краще розуміння, що допомагає нам їх вдосконалювати.
  • У деяких випадках ми можемо навчитися від AI, як приймати кращі рішення в деяких завданнях.
  • Це допомагає користувачам довіряти AI, що призводить до більш широкого прийняття AI.
  • Розгорнутий ІС у (не в далекому) майбутньому може знадобитися бути більш "прозорим".

4
Саме в цьому проблема (ІМХО). Часто ви не можете вичерпно перевірити чорну скриньку, і тоді ви приймаєте (навіть у життєво важливих програмах) те, що "здається досить добрим", в даному випадку людський мозок, і ми всі з цим добре. Якщо ми не можемо зробити це для ШІ, то це пов'язано з (обмеженнями) в нашому регламенті, а не тому, що "для польоту літака все має бути доведено математично" (це не так, навіть сьогодні без жодного ШІ). Звичайно, тестування ІС не може бути таким же, як ви тестуєте пілота людини (навіть якщо вони можуть частково збігатися).
Адріано Репетті

11
@ZsoltSzilagy Я не кажу, що урядові норми - це погана річ. Я просто говорю, що вони є серйозною причиною для розробки пояснювальних ШІ, якщо ви працюєте в деяких галузях.
Djib2011

8
Ще один момент, який слід додати, - це концентрація ризику. Собака, що нюхає наркотики, може бути упередженою, і ви не можете запитати, чому вона приймає певні рішення. Але це лише одна собака з тисяч. Єдина модель AI буде розгорнута в усьому світі, тому, якщо вона неправильна, вона матиме значно більший вплив.
Брендан Уатінг

19
@BrendanWhiting насправді це цікавий випадок. Яка різниця між собакою, що нюхає наркотики, і ШІ, яка нюхає наркотики. Навіщо вимагати, щоб ШІ давав пояснення, поки собаці не довелося .... Я думаю, що різниця в тому, що в першому випадку собака - це лише інструмент, який допомагає людині (в даному випадку копа DEA) зробити його рішення. Він, зрештою, той, хто відповідає за це, а не собака. Аналогічно, немає проблем з ІС, що підтримують рішення , лише з органами, які приймають рішення . Ось так я думаю, що вся справа в підзвітності у багатьох областях у кінцевому рахунку буде обійдена.
Djib2011

6
Можливо, це також проблема невідомих невідомих. Ми тренували тварин тисячі років і майже впевнені, що це стабільно. Якби там збиралися зграї дресированих тварин, які мародували, що захопили світ, це, мабуть, сталося б уже зараз. (Хоча мені начебто подобається теорія про те, що більшість собак є різновидом паразитів, вони перетворилися настільки милі, що ми піклуємося про них замість власних молодих).
Брендан Уатінг

15

Навіщо нам потрібний пояснювальний ШІ? ... чому ми повинні знати, "як працює її розвідка?"

Тому що кожен, хто має доступ до обладнання, достатньо вміння та достатньо часу, може змусити систему прийняти рішення, яке несподівано. Власник обладнання, або треті сторони, покладаючись на рішення без пояснення того, чому це правильно, було б у невигідному стані.

Приклади. Хтось може виявити:

  • Люди, яких назвали Джоном Смітом і вимагають операції на серці: вранці у вівторок, вдень у середу чи у п’ятницю у непарні дні та місяці мають 90% шансів перейти на передню лінію.

  • Пари, які мають прізвище чоловіка непарною літерою в першій половині алфавіту і подають заявку на отримання кредиту з подружжям, чиє ім'я починається з літери з початку алфавіту, на 40% більше шансів отримати кредит, якщо вони є менше 5 поганих записів у їхній кредитній історії.

  • тощо.

Зауважте, що вищенаведені приклади не повинні бути визначальними факторами стосовно поставленого питання, проте противник (маючи власне обладнання або знання алгоритму) може використовувати його.

Вихідні документи :

  • " AdvHat: Напад реального нападу на систему ArcFace Face ID " (23 серпня 2019) Степан Комков та Олександр Петюшко

    • Створення наклейки та розміщення її на шапці дурить систему розпізнавання обличчя.
  • " Захист від протиборчих нападів через стійку регенерацію особливостей " (8 червня 2019 р.) Техас Боркар, Фелікс Хайде та Ліна Карам

    • "Прогнози глибокої нейронної мережі (DNN) показали, що вони вразливі до ретельно складених змагальних змагань. Зокрема, так звані універсальні змагальні збурення - це іміджеві збурення, які можна додати до будь-якого зображення і можуть обдурити цільову мережу робити помилкові прогнози Відступаючи від існуючих змагальних стратегій захисту, які працюють в області зображень, ми представляємо нову оборону, яка діє в домені функції DNN і ефективно захищає від таких універсальних змагальних атак. Наш підхід визначає попередньо підготовлені конволюційні риси, найбільш уразливі для змагальних шум і розгортає захисні пристрої, які перетворюють (регенерують) ці активації фільтра DNN в стійкі до шуму функції, захищаючи від небачених змагальних змагань. "

  • " Одна піксельна атака для дуріння глибоких нейронних мереж " (3 травня 2019 р.), Jiawei Su, Danilo Vasconcellos Vargas та Sakurai Kouichi

    • Змінення одного пікселя може призвести до таких помилок:

    Фігура 1
    Рис. 1. Однопіксельні атаки, створені за допомогою запропонованого алгоритму, який успішно обдурив три типи DNN, підготовлених за набором даних CIFAR-10: Всесвітня мережа (AllConv), Мережа в мережі (NiN) і VGG. Етикетки оригінального класу мають чорний колір, тоді як цілі цільового класу та відповідна впевненість наведені нижче.

     

    Малюнок 2
    Рис. 2. Однопіксельні атаки на набір даних ImageNet, де змінені пікселі виділені червоними колами. Етикетки оригінального класу мають чорний колір, тоді як цілі цільового класу та їх відповідні достовірності наведені нижче.

Без пояснення того, як і чому приймається рішення, рішення не можна повністю покластися.


1
Результати однієї піксельної атаки та інших подібних речей, тому я стверджую, що глибоке навчання нічого не вчить.
Джошуа

1
@Joshua Добре це не так, як у навчанні людини (розуміння міркувань), але він вивчає багатовимірну функцію, яка може класифікувати це зображення за категоріями. Це було зроблено самостійно, хоча він вирішив найкраще рішення, використовуючи грубу силу. Такого розмахування можна очікувати від пачки металу та піску, розташованих акуратно, щоб систематично надходити електроенергію.
користувач14492

1
Напишіть на ваші приклади, скажімо, позика на пари з прикольними умовами, хіба це не є пом’якшенням лише подачею даних моделі, про які вона повинна піклуватися? Як ім'я, ніколи не слід вводити в AI, тому що AI ніколи не повинен робити визначення на основі імені заявника. Я розумію, що ви розумієте, може бути менш надуманих прикладів проти точок даних, яких AI насправді потрібно. Ці піксельні атаки надзвичайно цікаві
Cruncher

@Cruncher Менш надумані приклади завжди кращі, коли хтось робить думку, наскільки заднім числом є 20/20. Як щодо того, якщо попередній відмовлений у позиці мав одночасно просте число (більше 7), а попереднє - два номери, які були простими, між 17 та 43 і т.д. доларів, взяти позику і спробувати дискваліфікувати, зробіть це кілька разів, тепер візьміть позику на будинок або корабель - на 30% більший шанс і попередні відмови знижуються. Без пояснення причини, яку ви завжди хотіли б зробити власний вибір.
Роб

@Joshua Ну, вони, безумовно, можуть дізнатися, як знайти одну піксельну атаку та подібні речі. (Документ, зв'язаний тут, використовував еволюційний підхід, але я бачив подібні результати, використовуючи GAN.) Жоден метод класифікації не буде ідеальним. Людський зір вразливий до оптичних ілюзій. Це машинний еквівалент. Ми можемо просто знайти більш екстремальні приклади для систем машинного зору, оскільки вони можуть робити та записувати прогнози швидше, ніж люди, тому ми можемо ефективно навчити іншу систему знаходити стани відмов, що відповідають певним критеріям.
Рей

8

Якщо ви банк, лікарня чи будь-яка інша організація, яка використовує прогностичну аналітику для прийняття рішення про дії, які мають величезний вплив на життя людей, ви не приймаєте важливих рішень лише тому, що дерева, що підсилили градієнт, сказали вам це зробити. По-перше, тому, що це ризиковано і основна модель може бути неправильною, а по-друге, тому що в деяких випадках вона є незаконною - див. Правило на пояснення .


5

Пояснювальний ШІ часто бажаний, оскільки

  1. ШІ (зокрема, штучні нейронні мережі) можуть катастрофічно не виконати заплановану роботу. Більш конкретно, його можна зламати або нападати з змагальними прикладами або він може приймати несподівані неправильні рішення, наслідки яких катастрофічні (наприклад, це може призвести до загибелі людей). Наприклад, уявіть, що ШІ несе відповідальність за визначення дозування лікарського засобу, яке потрібно давати пацієнту, виходячи з умов пацієнта. Що робити, якщо ШІ робить неправильний прогноз і це призводить до смерті пацієнта? Хто відповідатиме за таку дію? Щоб прийняти прогноз дозування ШІ, лікарям потрібно довірятиШІ, але довіра приходить лише з розумінням, яке потребує пояснення. Отже, щоб уникнути таких можливих збоїв, важливо зрозуміти внутрішню роботу ШІ, щоб вона не приймала цих неправильних рішень знову.

  2. ШІ часто потребує взаємодії з людьми, які є живими істотами (у нас є почуття), які часто потребують пояснення чи заспокоєння (стосовно якоїсь теми чи події).

  3. Загалом, люди часто шукають пояснення та розуміння свого оточення та світу. За своєю природою ми допитливі та дослідницькі істоти. Чому падає яблуко?


4

Відповідь на це неймовірно проста. Якщо ви одного разу є керівником банку, вам може знадобитися встати в суд і пояснити, чому ваш AI відмовив у видачі іпотеки всім цим людям ... яким просто ділиться якоюсь захищеною характеристикою згідно антидискримінаційного законодавства. Суддя не буде радий, якщо ви помахаєте рукою питанням, щось нарікаючи алгоритми. Або ще гірше, чому цей автомобіль / літак зазнав аварії та як ви будете запобігати цьому наступного разу.

Це головний блокатор більш широкого впровадження ШІ у багатьох галузях.


1
"Відповідь" завищує вашу справу. Я б підтримав, якби ви сказали "Одна відповідь ..."
Джон Коулман

3

Ще одна причина: В майбутньому AI може використовуватися для завдань, які неможливо зрозуміти людям, розуміючи, як заданий алгоритм AI працює над цією проблемою, ми можемо зрозуміти природу даного явища.


2

На додаток до всіх цих відповідей, де згадуються більш практичні причини, чому ми хочемо пояснити ІС, я хотів би додати ще філософський.

Розуміння того, як працюють навколо нас, є однією з головних рушійних сил науки від античності. Якщо ви не розумієте, як все працює, ви не зможете розвиватися поза цією точкою. Просто тому, що "гравітація працює" не зупинила нас, намагаючись зрозуміти, як це працює. У свою чергу, краще розуміння цього спричинило кілька ключових відкриттів, які допомогли нам просунути нашу технологію.

Так само, якщо ми зупинимось на "це працює", ми припинимо його вдосконалювати.


Редагувати:

ШІ займався не лише змушенням "машин думати", а й через них, щоб зрозуміти, як працює людський мозок. ШІ та нейронаука йдуть рука об руку .

Це все було б неможливо, не маючи можливості пояснити AI.


0

Не слід вважати, що розвиток ШІ спочатку мотивувався прагненням допомогти людині. Є багато правдоподібних пояснень, однаково важких або довести, або спростувати.

  • Будьте відомі, щоб придумати якусь футуристичну ідею, перш ніж хтось інший зробить
  • Заздалегідь набудьте сили якогось уявного ворога чи якогось майбутнього потенційного
  • Бо це можливо
  • Задля розваги
  • Тому що Міністерство оборони США, ймовірно, фінансує це на невизначений термін
  • Це вдалий кар’єрний хід
  • Довести, що в людському мозку немає нічого особливо дивного
  • Нас найняли і дали трохи грошей, і це здавалося гарним способом їх витратити
  • Було вирішено це зробити, але ніхто з нас не пам'ятає чому

У цьому питанні також є деякі погано визначені описові слова, хоча для їх заміни може бути важко знайти кращі слова. Як ми їх формалізуємо?

  • На свої кращі здібності (інтелектуальні системи) --- Яким чином ми б оцінювали здібності та порівнювали результати з ними? Ми кажемо студенту: "Ти не застосовуєш себе", але це навряд чи наукове спостереження. Це дещо довільне судження, засноване на прогнозі досягнення, яке не було виконано відповідно до системи оцінювання третьої сторони та її застосування іншими помилковими сторонами.
  • Ретельно приймаючи рішення --- Догляд передбачає цілі, які самі по собі є об'єктивними. Ми ще не задокументували передову обчислювальну платформу, що кодує систему етики, застосовану до абстрагованого усвідомлення ситуацій, як, наприклад, у випадку з етичною людиною, завдяки якій турбота набуває будь-якого реалістичного значення. Те, що шлюз нанду надійно виконує функцію нанду або доведено, що якийсь алгоритм збігається з заданим розміром набору даних у конкретних умовах, навряд чи є повністю розширеним значенням того, що ми є, коли ми обережні.
  • Пояснювально --- Це теж неоднозначно. З одного боку, конвергенція на наборі значень параметрів під час конвергенції штучної мережі є поясненням, але окремі значення не пояснюються. З іншого боку, повний звіт гіпотези, експериментальна конструкція, вибір набору умов, аналіз, результати та висновок все ще не є вичерпним поясненням. Такий звіт може містити лише менше 1% інформації, що описує застосування інтелекту людини до досліджень, окреслених у звіті.

Рання робота над штучними мережами була піддана критиці в журналах AI початку 1990-х за те, що вона не була зрозумілою на основі простежуваності. Виробничі (на основі правил) системи залишили аудиторські сліди правил, які застосовувались, та результатів попередніх правил, щоб хтось міг зібрати письмове підтвердження результату. Це було обмежено корисним.

Коли рульові колеса будуть зняті з транспортних засобів, а деякі юрисдикції починають законодавчо застосовувати проти водіння людей у ​​деяких регіонах, цього не буде, оскільки докази безпеки в мільйоні сценаріїв були розписані. Це відбудеться тому, що розподіли зафіксованих випадкових загибелей, розчленування та знищення майна, спричиненого водієм ШІ, встановленим у певному типі транспортного засобу, протягом достатньо переконливого періоду часу свідчить про його безпеку щодо цих розподілів для водіїв людини. Врешті-решт, у якійсь судовій залі чи законодавчому комітеті хтось скаже це або його аналог.

Якщо ми не забороняємо їзду на людях за вказаних умов для регіону, про який йде мова, ми засуджуємо X кількість чоловіків, жінок, дітей та літніх пішоходів та пасажирів на рік до передчасної смерті.

Розуміння механізму дії та прийнятих рішень для конкретних випадків є корисним, але чому таке корисне настільки ж невизначене, як і те, що AI стала життєздатною сферою роботи та навчання.

  • Було б цікаво порівняти конкурентоспроможні системи ШІ в кількісному вимірі.
  • Було б велике академічне значення зрозуміти більше про інтелект.
  • Краще пояснення робить хороший папір.
  • Я одного разу каракулював і прийшов, щоб пояснити певний клас систем, який, здається, пояснюється погано.

Незважаючи на те, що неревізованість систем ШІ може виникнути на ґрунті законодавчих та судових подій, значна частина прийнятих рішень буде ґрунтуватися на способі публікації та сприйняття статистичних оцінок. Ті, хто наполягає на тому, що системи функціонують так, що можна пояснити, ймовірно, свідомо чи підсвідомо будуть мотивовані інтересом до сприйняття того, що панування людей є явною долею. Більш ніж іронічно, що багато хто з тих, хто допомагав інтересам США та СРСР під час «холодної війни», вважаються лідерами тероризму наступниками обох фракцій холодної війни.

Пов'язане і більш чітко відповідне питання полягає в тому, чи можна очікувати, що розумний помічник залишатиметься помічником безстроково. Розслідування вічно-інтелігентних-назавжди помічників триває і викликає неабиякий інтерес для всіх, від авторів наукових фантастичних сценаристів і до спеціалістів, що займаються військовими філіями.


-1

ІМХО, найважливіша потреба в поясненні ШІ - це запобігти нам інтелектуально ледачим. Якщо ми перестаємо намагатися зрозуміти, як можна знайти відповіді, ми передали гру на наші машини.


Ну, ми розуміємо, як вони знаходять відповіді на високому рівні: вони здогадуються близько мільйонів разів, поки не знайдуть багатообіцяючу модель. Інтелектуальне завдання полягає в тому, щоб зрозуміти, ЩО ПРИЧИНАє ці скоромовки - питання, якого AI не хвилює менше.
Zsolt Szilagy

Іноді це правда, але деякі типи ШІ (наприклад, генетичні алгоритми) часто роблять краще, ніж це, і їх можна структурувати, щоб надати хороші підказки щодо того, що викликає закономірності. Іноді просто вказівка ​​на те, що "візерунок, знайдений у цьому наборі даних, дуже близький до шаблону, знайденого в цьому наборі інших даних", може бути дуже інформативним і призводити до пояснення причини.
С. Макгрю
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.