Уникнення соціальної дискримінації в побудові моделей


10

У мене є запитання, натхнені нещодавним скандалом з призовом на роботу в Амазонії, де їх звинувачували в дискримінації жінок у процесі прийняття на роботу. Більше інформації тут :

Фахівці з машинного навчання Amazon.com Inc виявили велику проблему: їх новий рекрутинг не сподобався жінкам.
Команда будувала комп’ютерні програми з 2014 року для перегляду резюме претендентів на роботу з метою механізації пошуку найвищих талантів ...
... Експериментальний інструмент найму компанії використовував штучний інтелект, щоб дати кандидатам на роботу балів від однієї до п’яти зірок ...
... Але до 2015 року компанія зрозуміла, що її нова система не оцінює кандидатів на роботу розробників програмного забезпечення та інших технічних посад гендерно-нейтрально.
Це тому, що комп’ютерні моделі Amazon пройшли навчання ветеринарів, дотримуючись зразків у резюме, поданому компанії протягом 10-річного періоду. Більшість припадає на чоловіків, що відображає домінування чоловіків у технічній галузі. (Для графіки про гендерні розбиття в технічному відношенні див .: тут ) Фактично, система Amazon навчила себе, що кандидати-чоловіки є кращими. Це покарання резюме, яке включало слово "жіночий", як у "капітана жіночого шахового клубу". І це знизило випускників двох загальноосвітніх коледжів, на думку людей, знайомих із цією справою. Назви шкіл не вказали.
Amazon редагував програми, щоб зробити їх нейтральними до цих конкретних умов. Але це не було гарантією того, що машини не придумують інших способів сортування кандидатів, які можуть виявитись дискримінаційними, кажуть люди.
Компанія "Сіетл" врешті-решт розпустила команду до початку минулого року, оскільки керівники втратили надію на проект ...
... Експеримент компанії ... пропонує тематичне вивчення обмежень машинного навчання.
... комп'ютерні вчені, такі як Ніхар Шах, який викладає машинне навчання в університеті Карнегі Меллон, кажуть, що ще багато роботи.
"Як забезпечити справедливість алгоритму, як переконатися, що алгоритм справді тлумачний і зрозумілий - це ще досить далеко", - сказав він.

МАСКУЛІНСЬКА МОВА
[Amazon] створила команду в інженерному центрі Amazon в Едінбурзі, яка зросла до десятка людей. Їх метою було розробити ШІ, який міг би швидко просканувати Інтернет та визначити кандидатів, яких варто набрати, - сказали люди, знайомі з цим питанням.
Група створила 500 комп'ютерних моделей, орієнтованих на конкретні функції та місця. Вони навчили кожного розпізнавати близько 50 000 термінів, які з’явились у резюме минулих кандидатів. Алгоритми навчилися надавати незначного значення навичкам, які були загальними для всіх претендентів на ІТ, як, наприклад, вміння писати різні комп'ютерні коди ...
Натомість технологія віддала перевагу кандидатам, які описували себе за допомогою дієслів, які частіше зустрічаються у резюме чоловічих інженерів, наприклад "страчений" і "полонений", - сказала одна людина.

Скажімо, я хочу побудувати статистичну модель, щоб передбачити деякий вихід із особистих даних, як, наприклад, п'ятизірковий рейтинг, щоб допомогти набору нових людей. Скажімо, я також хочу уникнути гендерної дискримінації як етичного обмеження. Враховуючи два строго однакових профілю, окрім статі, вихід моделі повинен бути однаковим.

  1. Чи повинен я використовувати гендер (або будь-які дані, пов'язані з ним) як вхідні дані, і намагатися виправити їх вплив, або уникати використання цих даних?

  2. Як перевірити відсутність дискримінації щодо статі?

  3. Як я виправляю свою модель для даних, які є статистично дискримінантними, але я не хочу бути з етичних причин?


1
Я думаю, що посилання на статтю про передбачуваний скандал з вербуванням Amazon було б важливо мати в тілі вашого питання. Дехто може стверджувати, що "дискримінації" (залежно від того, як визначено термін) взагалі немає, а простий дисбаланс між чоловіками та жінками, яких наймають, тому, можливо, надайте своє визначення "дискримінації".
Студент

1
А як щодо можливості, що канонічна відповідь тут неможлива? Чи можете ви вирішити це? Я розглядаю можливість перекриття.
gung - Відновіть Моніку

3
"відсутність впливу статі на вихід моделі" - я не бачу, чому це хороше визначення. Припустимо, у вас немає функції, яка називається гендерною, в моделі, яка, мабуть, так чи інакше. Тоді модель "розбирається", дивлячись на інших, що приписують, що це жінка, і понижує число, тому що жінка менш придатна до роботи, а що? Є багато робочих місць, де жінки б погано підходили, наприклад, морські піхотинці. Це не означає, що ви не можете знайти жінку, яка була б чудовою, але більшість з них не підійде.
Аксакал

2
@Lcrmorin, чому тільки фізичне? Чому, на вашу думку, програміст найкраще підходить як жінкам, так і чоловікам? Я не бачу очевидної причини. Я підозрілий, оскільки під питанням лише високооплачувана робота. Наприклад, чоловіків отримують у в'язниці більше, чому б не підштовхнути, щоб жінки були ув’язнені за такою ж ставкою? Гарне визначення того, що являє собою дискримінацію, є першорядним
Аксакал,

1
Я думаю, що це охоплюється будь-яким курсом прикладної статистики з соціальних наук, який намагається визначити причинно-наслідкові наслідки ... Виявлення пропущених змінних зміщення тощо, "контроль за фактором X" тощо
seanv507

Відповіді:


4

Ця стаття надає чудовий огляд того, як орієнтуватися на ґендерне зміщення, особливо в моделях, заснованих на мовах: Чоловік - це програміст з комп’ютерів, як жінка - домогосподарка? Дебілізація вбудовування слів - Bolukbasi et. ін. . Приємний підсумок блогу можна знайти тут:

https://developers.googleblog.com/2018/04/text-embedding-models-contain-bias.html

Тут ви знайдете більший збірник ресурсів:

https://developers.google.com/machine-learning/fairness-overview/

Ви знайдете низку методів у вищезазначених посиланнях для пом’якшення гендерних упереджень. Взагалі вони поділяються на три класи:

1) Під / над вибіркою даних. Це призначено для вибірки високоякісних резюме жінок та резюме чоловіків.

2) Віднімання "гендерного підпростору". Якщо ваша модель ґендерно упереджена, ви можете продемонструвати це так, використовуючи вкладені резюме, щоб безпосередньо передбачити стать. Побудувавши таку допоміжну модель (навіть просто відібравши загальні терміни, що належать до будь-якої статі, а потім застосувати PCA), ви можете фактично відняти цей вимір з моделі, нормалізуючи резюме як гендерно нейтральне. Це основна техніка, що використовується в роботі Болубассі.

3) змагальне навчання. У цьому випадку ви намагаєтесь отримати додаткові дані, намагаючись створити більше версій високоякісних резюме жінок, які інакше не відрізняються від реальних резюме.


1
Тут немає образи, але чогось не вистачає. Це лікування симптомів, ігнорування захворювання? Чи мовне рішення для ПК на ПК взагалі є рішенням чи це проблема в власній справі? Мова не є першоджерелом почуттів, лише засобом їх вираження. Почуття - це реакція на ситуації. Виправте ситуації, а не обмацуйте їх мовою.
Карл

@Carl: Якщо набір даних уже прогнив з ухилом, виправити це дуже важко. Політична коректність - це спроба пом’якшити упередженість. У випадку з МЛ ми відхиляємо модель від упереджених прогнозів, що ґрунтуються на статі, до тих, які ґрунтуються виключно на майстерності. В іншому випадку така модель, швидше за все, покарає жінок та присвоїть їм дуже різні зневаги у своїх навичках для кожної професії. Прочитайте відповідь Дейва Гарріса про додаткові способи виникнення упередженості та як їх виправити за допомогою фізичних змін (на відміну від змін даних)
Алекс Р.

Я прокоментував відповідь Дейва, тож ваша пропозиція показує, що ви пропустили це. Ви також можете пропустити те, що виграти роботу, яку ви ненавидите, - це проблема. Вирішіть проблему утримання та робоче середовище. Зробити жінок більш "привабливими" нічого не вирішує, це може посилити проблеми. Що стосується роботи, проблема полягає не в тому, щоб "одружитися" з нею, а "залишитись у шлюбі".
Карл

@Carl: Я не впевнений, про що ви тут сперечаєтесь, оскільки питання ОП чітко запитує про те, як побудувати статистичну модель на існуючому наборі даних. Посилання, які я надав, показують, що мовні моделі, що не існують, вже можуть містити приховані упередження. Я можу так само стверджувати, що люди, які досить довго тримають свою роботу, швидше за все є посередніми, щоб знайти роботу в іншому місці. Незалежно від того, який KPI ви оптимізуєте (це актуальна, але зовсім окрема тема), ваша модель все ще може проявляти гендерні упередження.
Алекс Р.

1
Домовились. Ви відповіли на питання. Однак збереження робочих місць жінок із технічних завдань погано, і ви не виявили проблеми. Тож відповідь - це зневага до жінок. Якщо його використовувати, це спричинить нещастя. Статистики несуть моральну відповідальність бачити свою роботу в контексті та визначати питання, які є більш відповідними, ніж ті, що ставляться наївно.
Карл

9

Це не відповідь на ваше запитання, а лише кілька думок, які занадто довгі, щоб вмістити коментар.

Я думаю, що одна з проблем, яку ми повинні враховувати, обмірковуючи ці питання, полягає в тому, що кожна модель дискримінує , і вони будуть робити це на основі будь-якої асоціації, присутньої в даних. Ось, мабуть, і вся мета прогностичної моделі. Наприклад, чоловіки справді більше схильні до злочинів, ніж жінки, тому майже будь-яка модель, яка має доступ до цієї інформації, може зробити такий висновок.

Але це не означає, що ми повинні засуджувати когось частково за ознакою статі, навіть якщо чоловік, як правило, має більше шансів скоїти злочин (інші рівні). Швидше нам потрібно вимагати прямих доказів злочину при прийнятті таких рішень, а не інформації про просту асоціацію. Як ще один приклад: чи дійсно люди, які мають більше шансів захворіти, заслуговують платити більші страхові внески?

Отже, якщо мова йде про дискримінацію, я б заперечував, що питання стосується більше етичного застосування , а не несправедливих моделей. Якщо ми хвилюємося щодо продовження дискримінації чи інших несправедливих результатів при використанні моделі в даній ситуації, то, можливо, нам не слід використовувати модель.


2
Я б заперечував щодо вашого останнього речення, що модель, побудована для уникнення соціальної дискримінації, буде в цьому питанні краще, ніж людина, але я не тому, що я тут. Я відредагую свій пост з кращим визначенням соціальної дискримінації.
lcrmorin

Я не думаю, що наша судова система має намір більше покарати чоловіків, але це так. Те саме стосується гіпотетичного алгоритму Amazon. Я сумніваюся, що вони хотіли дискримінувати жінок, але альго дізнався, що жінки все одно менш придатні та дискримінаційні.
Аксакал

Ви різко відійшли від питання ОП: Контрастна дискримінація n 1: несправедливе поводження з людиною чи групою на основі забобону 2: когнітивний процес, за яким розрізняють два чи більше стимулів. [WordNet]. ОП запитує про перше визначення, а ви - про друге.
Олексій

@ Алексис Насправді мені незрозуміло, що ОП говорить лише про перше визначення. У цитаті: "Як я виправляю свою модель для даних, які є статистично дискримінантними, але я не хочу бути з етичних причин?" Це, мабуть, означає, що вони хочуть мати справу з речами, які статистично відрізняються за статтю, навіть якщо вони не є рисами, які не є несправедливими у використанні. До речі, також немає різкого розмежування двох понять дискримінації. Те, що одні вважають справедливим, інші вважають несправедливим.
Eff

Існують важливі відмінності щодо статі, як за кількістю людей, які подають заявку, так і за рівнем профілю. Моя мета - забезпечити, щоб двоє людей з аналогічним профілем, але не однакової статі, порівнювались.
lcrmorin

6

Раніше я працював над проектом, щоб розробити найкращі практики управління програмним забезпеченням. Я спостерігав приблизно півсотні програмних команд на місцях. Наш зразок був близько 77, але ми в кінцевому підсумку побачили близько сотні команд. Окрім збору даних про такі речі, як сертифікати, ступеня тощо, ми також збирали різноманітні психологічні та демографічні дані.

Команди з розробки програмного забезпечення мають в цьому дуже важливі ефекти самовибору, які, не маючи нічого спільного з гендерною ознакою, сильно корелюються з гендерною ознакою. Також менеджери схильні до реплікації. Люди наймають людей, з якими їм комфортно, і їм найбільш комфортно. Також є дані, що люди оцінюються когнітивно упереджено. Уявіть, що як менеджер я дуже ціную швидкий прибуття на початку роботи. Тоді я буду оцінювати це. Інший керівник, який просто піклується про те, щоб робота була виконана, може покластися на щось зовсім інше, як на важливе.

Ви зазначали, що чоловіки використовують мову по-різному, але також правда, що люди з різними особистостями користуються мовою по-різному. Можуть бути і різниці в застосуванні етнічних мов, див., Наприклад, поточні суперечки в Гарвардському і Азіатському зізнаннях.

Тепер ви припускаєте, що програмні фірми дискримінують жінок, але існує інша форма гендерної дискримінації в галузі розробки програмного забезпечення, яку ви не брали до уваги. Коли ви контролюєте об'єктивні речі, такі як посвідчення, ступінь роботи, і так далі, середня жінка заробляє на 40% більше, ніж середній чоловік. У світі існує три джерела дискримінації зайнятості.

Перший полягає в тому, що менеджери чи власники не бажають наймати когось на основі якоїсь особливості. Друга полягає в тому, що колеги не бажають працювати з людьми з цією особливістю. Третє - замовники не хочуть людей, які мають особливість. Здається, що дискримінація заробітної плати викликається клієнтами, оскільки робочий продукт відрізняється, а з точки зору клієнтів - також кращим. Ця ж особливість змушує чоловіків-гігієністів отримувати менші зарплати, ніж жінки. Це також бачимо в упередженості "народжених тут" у світовій футбольній зарплаті.

Найкращим контролем для цього є розуміння ваших даних та залучених соціальних сил. Будь-яка фірма, яка використовує власні дані, має тенденцію до реплікації. Це може бути дуже хорошою справою, але це також може зробити їх сліпими для сил на роботі. Другий контроль - це зрозуміти вашу цільову функцію. Прибуток може бути хорошою функцією, але може бути поганою функцією. У виборі функції об'єктивної втрати є великі значення. Потім, нарешті, виникає питання перевірки даних на демографічні показники, щоб визначити, чи відбувається нещасна дискримінація.

Нарешті, і це більша проблема у таких речах, як AI, де ви не можете отримати хорошої інтерпретаційної статистики, ви хочете контролювати парадокс Юля. Класичним історичним прикладом є відкриття, що 44% чоловіків були прийняті до УК Берклі, тоді як лише 35% жінок були прийняті в 1973 році. Це було величезною різницею і статистично значущою. Це також було вводити в оману.

Це було очевидно скандально, і тому університет вирішив подивитися, які були кривдні спеціальності. Ну, виявилося, що коли ти контролював мажор, був статистично значимий ухил на користь прийому жінок. З восьмидесяти п’яти спеціальностей шість були упередженими по відношенню до жінок, а чотири - до чоловіків, решта не були суттєвими. Різниця полягала в тому, що жінки пропорційно претендували на найбільш конкурентоспроможні спеціальності, і так мало хто з будь-якої статі потрапляв. Чоловіки, швидше за все, звертаються до менш конкурентоспроможних спеціальностей.

Додавання парадоксу Юля створює ще глибший шар дискримінації. Уявіть, замість гендерного тесту був ґендерний тест за типом роботи. Ви, можливо, можете пройти тест на гендерну нейтральність у всій компанії, але провалитись на рівні завдання. Уявіть, що тільки для жінок набирали V&V, а чоловіків для адміністрування систем. Ви б виглядали гендерно нейтральними, а вас не було б.

Одне з потенційних рішень для цього - запустити конкурентоспроможні ІР, які використовують різні об'єктивні критерії «доброти». Мета - розширити сітку, а не звузити її. Це також може допомогти уникнути іншої проблеми в літературі з управління. Хоча 3% чоловіків є соціопатами, ця кількість значно зростає, коли ви йдете далі та далі вгору по корпоративній сходинці. Ви не хочете фільтрувати соціопатів.

Нарешті, можливо, ви не хочете розглянути можливість використання AI для певних типів посад. Я зараз полюю на роботу. Я також впевнений, що мене відфільтрували, і я не зрозумів, як його обійти. Я сиджу на дуже руйнівній новій технології. Проблема в тому, що моя робота не відповідає магічним словам. Натомість у мене є наступний набір магічних слів. Зараз я коштую цілого статку для потрібної фірми, але в одному випадку, коли я подав заявку, я отримав автоматичне зниження менше ніж за хвилину. У мене є друг, який обіймав посаду керівника директора федеральних відомств. Він подав заявку на роботу, де менеджер з найму чекав, коли його заява надійде, щоб він міг запропонувати роботу. Він ніколи не потрапляв через те, що фільтри блокували його.

Це ставить другу проблему ШІ. Якщо я можу розібратися з резюме в Інтернеті, кого наймає Amazon, тоді я можу чарувати своє резюме. Дійсно, я зараз працюю над своїм резюме, щоб пристосувати його до фільтрів, що не належать людині. Я також можу сказати з електронних листів рекрутерів, що деякі частини мого резюме збільшуються, а інші частини ігноруються. Начебто процес набору та найму був перейнятий таким програмним забезпеченням, як Prolog. Логічні обмеження виконані? Так! Це оптимальний кандидат або набір кандидатів. Вони оптимальні?

Не існує заздалегідь складеної відповіді на ваше запитання, лише проблеми з інженером.


(+1) Суцільні спостереження. Мені особливо подобається еквівокація щодо інтерпретаційного зміщення результатів і лише додам, що слід визначити мету соціальної інженерії, яка є об'єктно-орієнтованою, тобто якусь відчутну користь. Наприклад, наявність медсестри для вставки сечових катетерів у чоловіків не вимагає, щоб 50% медсестер були чоловіками.
Карл

@Dave. дякую за ваше розуміння. Чи можете ви надати джерела для "Коли ви контролюєте такі об'єктивні речі, як сертифікати, дипломи, стажування тощо), середня жінка заробляє на 40% більше, ніж середній чоловік"? і що ви маєте на увазі під "Ви не хочете фільтрувати соціопатів". ?
lcrmorin

@Lcrmorin є соціопати прагнуть просуватися. Якщо ти реплікуєш свою існуючу ієрархію через те, що ти використовуєш її дані, то ти можеш опинитись на тих поведінках, які фільтрують соціопатію. Існує віра, що програмне забезпечення буде нейтральним, але багато існуючих ланцюгів командування далеко не нейтральні. Іноді фільтрація для чоловіків насправді не є фільтруванням для чоловіків, а натомість, поведінка чоловіків, що маскує соціопатію.
Дейв Харріс

@Lcrmorin Мій офіс зараз буквально знаходиться в коробках, коли він переміщується, включаючи близько семи сотень статей журналу. Стаття вразила мене, тому що я займався дослідженням інженерів програмного забезпечення. Однак це було дванадцять років тому. Провівши польові дослідження та навчивши майбутніх інженерів, я здогадуюсь, що жінкам доводиться підбирати поведінку чоловіків, щоб вижити в групі, де переважають сильно чоловіки, але чоловікам не потрібно підбирати поведінку, яку жінки приносять із собою. Моя здогадка полягає в тому, що різниця входить через процес витребування вимог.
Дейв Харріс

Я в основному скептично ставився до 40% фігури, що, здається, багато і ніде не те, що люди, в тому числі і мене, здається, відчувають сьогодні.
lcrmorin

5

Для побудови такої моделі важливо спершу зрозуміти деякі основні статистичні аспекти дискримінації та результатів процесів. Це вимагає розуміння статистичних процесів, які оцінюють об'єкти на основі характеристик. Зокрема, воно потребує розуміння взаємозв'язку між використанням характеристики для цілей прийняття рішень (тобто дискримінації) та оцінкою результатів процесу стосовно зазначеної характеристики. Почнемо із зазначення наступного:

  • Дискримінація (у власному розумінні) виникає тоді, коли змінна використовується у процесі прийняття рішення, а не лише тоді, коли результат співвідноситься із цією змінною. Формально ми дискримінуємо відносно змінної, якщо функція рішення в процесі (тобто рейтинг у цьому випадку) є функцією цієї змінної.

  • Невідповідність результатів стосовно певної змінної часто виникає навіть тоді, коли за цією змінною немає дискримінації . Це відбувається, коли інші характеристики функції рішення співвідносяться із виключеною змінною. У випадках, коли виключена змінна є демографічною змінною (наприклад, стать, раса, вік тощо), кореляція з іншими характеристиками є всюдисущою, тому слід очікувати розбіжностей у результатах за демографічними групами.

  • Можна спробувати зменшити розбіжність у результатах по демографічним групам шляхом позитивних дій, що є формою дискримінації. Якщо існують розбіжності в результатах процесу щодо змінної, можна зменшити ці відмінності, використовуючи змінну як змінну рішення (тобто, дискримінуючи цю змінну) таким чином, що надає перевагу групам, які є "недостатньо представленими" (тобто групи з меншою часткою позитивних результатів у процесі прийняття рішення).

  • У вас це не може бути обома способами - або ви хочете уникнути дискримінації стосовно певної характеристики, або ви хочете вирівняти результати результатів щодо цієї характеристики. Якщо ваша мета - "виправити" невідповідності результатів стосовно певної характеристики, тоді не замислюйтесь про те, що ви робите ---, ви вступаєте в дискримінацію з метою позитивних дій .

Після того, як ви зрозумієте ці основні аспекти статистичних процесів прийняття рішень, ви зможете сформулювати, яка ваша фактична мета в цьому випадку. Зокрема, вам потрібно буде вирішити, чи хочете ви недискримінаційний процес, який, ймовірно, призведе до розбіжності результатів по групах, чи ви хочете, щоб дискримінаційний процес мав отримати однакові результати (або щось наближене до цього). Етично це питання імітує дискусію щодо недискримінації проти стверджувальних дій.


Скажімо, я хочу побудувати статистичну модель, щоб передбачити деякий вихід із особистих даних, як, наприклад, п'ятизірковий рейтинг, щоб допомогти набору нових людей. Скажімо, я також хочу уникнути гендерної дискримінації як етичного обмеження. Враховуючи два строго однакових профілю, окрім статі, вихід моделі повинен бути однаковим.

Легко переконатися, що на оцінки, надані в моделі, не впливає змінна, яку ви хочете виключити (наприклад, стать). Для цього все, що вам потрібно зробити, - це видалити цю змінну як предиктор в моделі, щоб вона не була використана в рейтинговому рішенні. Це забезпечить, що два профілі, які є абсолютно рівними, крім цієї змінної, обробляються однаковими. Однак це не обов'язково гарантуватиме, що модель не дискримінує на основі іншої змінної, яка корелює з виключеною змінною, і, як правило, не призводить до результатів, рівних між гендерними ознаками. Це пояснюється тим, що гендерний зв'язок пов'язаний з багатьма іншими характеристиками, які можуть використовуватися в якості прогнозних змінних у вашій моделі, тому ми, як правило, очікуємо, що результати будуть неоднаковими навіть за відсутності дискримінації.

Що стосується цього питання, корисно розмежовувати характеристики, які притаманні гендерним характеристикам (наприклад, мочі, що стоять), порівняно з характеристиками, які просто співвідносяться із статтю (наприклад, має ступінь інженерії). Якщо ви хочете уникнути гендерної дискримінації, це, як правило, тягне за собою усунення гендерної ознаки як предиктора, а також усунення будь-якої іншої характеристики, яку ви вважаєте притаманною гендерною характеристикою. Наприклад, якщо трапилось так, що кандидати на роботу вказують, чи підглядають вони стоячи чи сідаючи, то це характеристика, яка не є рівнозначною статтю, але один варіант фактично визначає стать, тому ви, ймовірно, усунете цю характеристику як предиктор у моделі.

  1. Чи повинен я використовувати гендер (або будь-які дані, пов'язані з ним) як вхідні дані, і намагатися виправити їх вплив, або уникати використання цих даних?

Правильно, що саме? Коли ви говорите "виправте їхній ефект", я припускаю, що ви маєте на увазі, що ви розглядаєте "виправлення" невідповідностей у результатах, які спричинені прогнозами, які співвідносяться з гендерною ознакою. Якщо це так, і ви використовуєте гендер, щоб спробувати виправити невідповідність результатів, тоді ви ефективно вступаєте у позитивні дії --- тобто ви програмуєте свою модель, щоб позитивно дискримінувати гендер, щоб зблизити результати. . Ви хочете це зробити, залежить від вашої етичної мети в моделі (уникати дискримінації проти отримання рівних результатів).

  1. Як перевірити відсутність дискримінації щодо статі?

Якщо ви говорите про фактичну дискримінацію, а не про просту різницю в результатах, це легко обмежити і перевірити. Все, що вам потрібно зробити, - це сформулювати свою модель таким чином, щоб вона не використовувала гендерні (і притаманні гендерні характеристики) як предиктори. Комп'ютери не можуть приймати рішення на основі характеристик, які ви не вводите в їх модель, тому якщо у вас є контроль над цим, слід перевірити відсутність дискримінації.

Речі стають дещо складнішими, коли ви використовуєте моделі машинного навчання, які намагаються самостійно з'ясувати відповідні характеристики, без вашого вкладу. Навіть у цьому випадку ви маєте можливість запрограмувати свою модель так, щоб вона виключала предиктори, які ви вказали для видалення (наприклад, стать).

  1. Як я виправляю свою модель для даних, які є статистично дискримінантними, але я не хочу бути з етичних причин?

Коли ви посилаєтесь на "статистично дискримінантні" дані, я припускаю, що ви просто маєте на увазі характеристики, які корелюються із статтю. Якщо ви не хочете, щоб ці інші характеристики були там, то вам слід просто видалити їх як прогнози в моделі. Однак слід пам’ятати, що ймовірно, що багато важливих характеристик будуть співвідноситись із статтю. Будь-яка двійкова характеристика буде співвідноситись із статтю в будь-якому випадку, коли частка чоловіків із цією ознакою відрізняється від частки жінок із цією ознакою. (Звичайно, якщо ці пропорції близькі, ви можете виявити, що їх різниця не є "статистично значущою".) Для більш загальних змінних умова кореляції з нульовим значенням також дуже слабка. Таким чином,


Альтернативою для усунення корельованих змінних було б підготовка окремих моделей для чоловіків та жінок. Тоді питання полягає в тому, як використовувати ці окремі моделі?
kjetil b halvorsen

Набридливий. Тоді як заслуга в задумливості, наприклад, припущення, наприклад, "Як проблематично гендерне зміщення?" ніхто не всезнаючий і немає ніякої заміни для перевірки результатів постфактум .
Карл

1
+1 для продуманого. "Все, що вам потрібно зробити, - це сформулювати свою модель таким чином, щоб вона не використовувала гендерні (і притаманні гендерні характеристики) в якості прогнозів". Це легко написати, але починати створювати алгоритми для соціальних рішень, як наймання на роботу, коли суспільство перебуває в засобах масової інформації, означає, що такі речі, як історія доходів , здобуття освіти та попередня посада, є причиною нижчої за гендером.
Олексій

4

Це щонайбільше буде частковою відповіддю (або взагалі немає відповіді).

Перше, що слід зазначити, я повністю погоджуюся з @dsaxton: всі моделі "дискримінуються" (принаймні в деяких визначеннях дискримінації), оскільки це їхня функція. Проблема полягає в тому, що моделі працюють на підсумках та середніх значеннях, і вони присвоюють речі на основі середніх значень. Поодинокі особи є унікальними і можуть бути абсолютно не передбачувані.

Приклад: розглянемо просту модель, яка прогнозує згаданий п'ятизірковий рейтинг на основі однієї змінної - віку . Для всіх людей з однаковим віком (скажімо, 30) це буде мати однаковий результат. Однак це узагальнення. Не кожна людина у віці 30 років буде однаковою. І якщо модель виробляє різні ранги для різного віку - це вже дискримінує людей за їхнім віком. Скажімо, це дає 3-ма категоріям для 50-річних та 4-ма для 40-річних. Насправді буде багато 50-річних людей, які краще займаються, ніж 40-річні. І вони будуть дискриміновані.


  1. Чи повинен я використовувати гендер (або будь-які дані, пов'язані з ним) як вхідні дані, і намагатися виправити їх вплив, або уникати використання цих даних?

Якщо ви хочете, щоб модель повертала однаковий результат для рівноправних чоловіків і жінок, тоді вам не слід включати гендер в модель. Будь-які дані, пов’язані зі статтю, ймовірно, повинні бути включені. Виключаючи такі коріаріати, ви можете зробити щонайменше два типи помилок: 1) припускаючи, що всі чоловіки та жінки однаково розподілені по всіх коваріатах; 2) якщо деякі з цих гендерно співвідносних коваріатів мають відношення і до рейтингу, і одночасно співвідносяться із статтю - ви можете значно знизити продуктивність своєї моделі, виключивши їх.

  1. Як перевірити відсутність дискримінації щодо статі?

Запустіть модель на точно однакових даних двічі - один раз, використовуючи «чоловіче», а інший раз «жіноче». Якщо це походить з текстового документа, можливо, деякі слова можуть бути замінені.

  1. Як я виправляю свою модель для даних, які є статистично дискримінантними, але я не хочу бути з етичних причин?

Залежить від того, що ви хочете зробити. Один жорстокий спосіб закріпити рівність між гендерними категоріями - це запускати модель для чоловіків-заявників та жінок-претендентів окремо. А потім вибирайте 50% з однієї групи і 50% з іншої групи.

Ваш прогноз, швидше за все, постраждає - оскільки навряд чи найкращий набір претендентів буде включати рівно половину чоловіків та половину жінок. Але ти, мабуть, етично будеш добре? - знову ж це залежить від етики. Я міг бачити етичну декларацію, коли такий вид практики був би незаконним, оскільки він також дискримінував би за ознакою статі, але по-іншому.


Чому б також не тренуватися окремо?
kjetil b halvorsen

Чи це не запровадить ще одну форму дискримінації - чоловіків та жінок обирають за різними критеріями.
Кароліс Концевічус

Можливо, але варто було б спробувати. Це також може зробити кращі правила для чоловіків, не даючи машині простий вихід.
kjetil b halvorsen

"А потім виберіть 50% з однієї групи і 50% з іншої групи." Хіба це не призвело б до позитивної дискримінації, коли існують розбіжності в початковій сукупності (як за кількістю, так і за кількістю)?
lcrmorin

2
@Lcrmorin Так, звичайно. Це те, що вони мають на увазі під « він також Discriminate за статевою ознакою , але по - іншому. »
Eff

4

Що показує історія Амазонки, це те, що дуже важко уникнути упередженості. Я сумніваюся, що Amazon найняв тупих людей для цієї проблеми, або що їм бракує навичок, або у них недостатньо даних, або у них недостатньо кредитів AWS для підготовки кращої моделі. Проблема полягала в тому, що складні алгоритми машинного навчання дуже добре вивчають шаблони даних, гендерна зміна - саме така модель. У даних були упередженості, оскільки рекрутери (свідомо чи ні) віддали перевагу кандидатам у чоловіки. Я не кажу тут, що Amazon - це компанія, яка дискримінує кандидатів на роботу, я впевнена, що у них є тисячі антидискримінаційної політики, а також наймають досить хороших рекрутерів. Проблема з таким упередженням і забобонами полягає в тому, що незалежно від того, наскільки сильно ви намагаєтеся боротися з цим, існує. Є багато психологічних експериментів, які показують, що люди можуть заявити, що вони не є упередженими (наприклад, расистськими), але все ж робити необ’єктивні дії, навіть не усвідомлюючи цього. Але, відповідаючи на ваше запитання, щоб мати алгоритм, який не є упередженим, вам слід почати з даних, що не мають такого зміщення. Алгоритми машинного навчання вчаться розпізнавати та повторювати шаблони, які вони бачать у даних, тому, якщо ваші дані записують упереджені рішення, алгоритм, швидше за все, вивчить та посилить ці зміщення.

Друга річ - це управління даними. Якщо ви хочете заборонити своєму алгоритму вчитися приймати необ’єктивні рішення, вам слід видалити всю інформацію, яка допомогла б розмежувати групи інтересів (тут ґендер). Це не означає вилучення лише інформації про гендер, але й усієї інформації, яка може призвести до виявлення статі, і це може бути багато речей. Є такі очевидні, як ім’я та фото, але також непрямі, наприклад, відпустка матері в резюме, але також освіта (що робити, якщо хтось пішов до школи, яка займається лише дівчатами?), Або навіть історія роботи (скажімо, що рекрутери у вашій компанії не упереджені. але що робити, якщо кожен інший рекрутер раніше був упередженим, тому історія роботи відображає всі ці упереджені рішення?) і т. д. Як бачите,

Що стосується питань 2. і 3., то відповіді непрості, і я не відчуваю себе достатньо компетентним, щоб спробувати відповісти на них детально. Існує багато літератури про упередження та упередженість у суспільстві, і про алгоритмічні упередження. Це завжди складно, і для цього, на жаль, немає простих рецептів. Такі компанії, як Google, наймають експертів, роль яких полягає у виявленні та запобіганні подібного зміщення в алгоритмах.


1
Альтернативою для усунення всього, що допомагає моделі розмежувати (з точки зору конкретності) гендер, може бути навчання вашої моделі за гендерною ознакою, тоді, коли прогнозувати (або що завгодно), виконувати прогноз двічі, один раз для кожної статі, усереднюючи результати.
jbowman

@jbowman У результаті є невеликий інтерпретаційний наслідок та увічнення вбудованих упереджень у часі.
Олексій

Справа Амазонки жодним чином не переконливо показує упередженість. Це може бути просто явище, відоме як точність стереотипу . Іноді риси фактично співвідносяться з демографічними змінними. Ось приклад. Ви знаєте, що людина Х - молодий і середній клас. Наскільки ймовірні вони вчинити насильницький злочин? Зараз я даю вам ще одну інформацію: їх стать. Чи це змінює ймовірність? Звичайно. Це упередженість ? Звичайно, ні. Це те, що відоме як стереотипна точність.
Eff

1
@Eff, і так відбувається дискримінація ... Жінки в середньому заробляють менше, тому давайте платити їм менше! Весь сенс не маючи дискримінаційні алгоритмів є те , що ви не повинні використовувати цю інформацію для створення decissions, навіть якщо в середньому, здається, працює. Більше того, якщо часто працює через соціальну упередженість (наприклад, ми намагаємося платити більше чоловікам, афроамериканці частіше потрапляють до в'язниці за той самий злочин, порівняно з кавказькими американцями тощо), тож стереотип точний, оскільки там є стереотипом, а не через характер стереотипної групи.
Тім

1
@Tim Nope. Хоча в тому, що ви говорите, може бути деяка правда, загалом це неправда. Я закликаю вас прочитати книгу " Ю. Юссім " "Соціальне сприйняття та соціальна реальність: чому точність домінує упередженості та самоздійснення пророцтва" . У цій головній книзі автор, в основному, розглядає всю наукову літературу про стереотипи, упередження, самореалізуючі пророцтва тощо. Він показує, що свідчення в основному показують, що те, що ви описуєте, є меншою мірою того, що відбувається.
Eff

1
  1. Чи повинен я використовувати гендер (або будь-які дані, пов'язані з ним) як вхідні дані, і намагатися виправити їх вплив, або уникати використання цих даних?

Є кілька наслідків цього питання, які зводиться до наступного: чи хочу я бути соціальним інженером; активіст, роль якого полягає у зміні статусу, бо я вирішив, що суспільство хворе і потребує терапії?Очевидна відповідь на це залежить від того, корисна чи шкідлива така зміна чи ні. Наприклад, відповідь "Що ми могли б отримати від гендерної рівності для медперсоналу?" Можливо, наявність хоча б однієї медсестри для вставки сечових катетерів у чоловіків не вимагає, щоб цілі 50% медсестер були чоловіками. Таким чином, підхід до соціальної інженерії вивчає різні культури, контексти та проблеми з відомими гендерними зміщеннями, а також створює функціональні переваги від змін першопричини (тих) цієї зміщення. Це важливий крок у процесі прийняття рішень. Тепер, відповідь на питання 1. - це гучне "ні", тобто після того, як хтось вирішив, що суспільство потребує виправлення, потрібно лише додати зірку чи частку (див. Нижче) жінкам-претендентам, але будьте дуже уважні до того, що ви хочете, тому що це позитивна дія, яка сама по собі є дискримінаційною. Будь-які результати ШІ зміниться, щоб відобразити нові норми найму, як тільки вони стануть встановленими як нова функціональна норма.

  1. Як перевірити відсутність дискримінації щодо статі?

Досить просто, після присвоєння рейтингів робиться пост-спеціальний аналіз, щоб побачити, який розподіл оцінок серед чоловіків і жінок, і порівняти їх.

  1. Як я виправляю свою модель для даних, які є статистично дискримінантними, але я не хочу бути з етичних причин?

Це неминуче робиться після факту, тобто пост-хок . Передбачуваність також необхідна, але найбільш потрібний тип передбачуваності - це узгоджена спроба критично вивчити припущення соціального інженера. Тобто, якщо припустити (для аргументу, див. Нижче), що це соціологічно виправдано для усунення всіх гендерних упереджень, то лише коригує рейтинги жінок таким же емпіричним розподілом, як чоловіки. У навчальній справі це називалося б оцінюванням за кривою. Далі, припустимо, що не бажано робити повне усунення гендерних упереджень (це може бути занадто руйнівним для цього), тоді можна зробити часткове усунення упередженості, наприклад, середньозважене середнє значення кожної рідної жінки рейтинг та його повністю виправлена ​​оцінка, з якою б вагою не можна було присвоїти, що вважається (або перевірено як таке) як найменш шкідливе та / або найбільш корисне.

Різниця між статями не може бути належним чином змінена шляхом наймання однієї політики, оскільки в деяких сферах існує відносна дефіцитність жінок-кандидатів. Наприклад, у Польщі 14,3% студентів ІТ у 2018 році були жінками , а в Австралії - 17% . Після прийняття на роботу, утримання жінок у інтенсивно розвинених галузях промисловості було проблематичним (Жінки, що займаються бізнесом, в технічно інтенсивних галузях залишаються в інших галузях високими темпами - 53% жінок, порівняно з 31% чоловіків). Таким чином, задоволеність роботою жінок може бути важливішим, ніж лише політика найму. Спершу потрібно визначити відчутну вигоду від наявності будь-якого конкретного відсотка жінок на робочому місці, і щодо цього є деякі підказки, наприклад, у 2016 році, жінки в корпоративних правліннях (16%) майже вдвічі частіше, ніж їхні колеги-чоловіки (9%), мають професійний досвід в галузі технологій серед 518 компаній Forbes Global 2000. Таким чином, здається, що технічна кмітливість більше сприяє жіночій, ніж чоловічої вартості. З цього обговорення повинно бути очевидним, що перед тим, як зробити припущення щодо гендерних питань, слід докласти значних зусиль для виявлення більш глобальних конкретних переваг конкретних політик, від яких політика найму є лише невеликою, хоча і важливою, частиною, і, ймовірно, не найважливішою. відправна точка. Останнє, правдоподібно, є утриманням найманих працівників, оскільки товарообіг поганий для моралі і може бути першопричиною гендерної упередженості при наймі на роботу.

Мій досвід менеджменту навчив мене, що навіть невеликі зміни у виробництві (наприклад, 10-20%) є досить ефективними для врешті-решт виключення списків очікування, тобто немає необхідності негайно збільшувати виробництво на 100% шляхом подвоєння чисельності персоналу, як ефект від це скоротить список очікування лише трохи швидше, ніж менша зміна, але потім буде руйнівною, оскільки співробітники згодом будуть стояти навколо, сподіваючись, що робота піде у двері. Тобто, якщо хтось вирішить займатися соціальною інженерією, спробувати повної корекції може бути шкідливим; це не працює так. Спробуйте це з різкою корекцією курсу на вітрильнику, і ви можете закінчити, виконуючи свої заняття з плавання. Еквівалентом для лікування гендерних упереджень (якщо рецепт відповідає) було б наймати лише жінок. Це вирішило б проблему (і створило б інші). Тому,

Підводячи підсумок, ефективна соціальна інженерія вимагає цілісного підходу до складних ситуацій, а лише виявлення того, що може виникнути проблема, не говорить нам, що є така, не каже нам, що це викликає, не каже нам, як її виправити Все, що нам це говорить, - це те, що ми повинні надягати шапки для мислення.

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.