У мене є запитання, натхнені нещодавним скандалом з призовом на роботу в Амазонії, де їх звинувачували в дискримінації жінок у процесі прийняття на роботу. Більше інформації тут :
Фахівці з машинного навчання Amazon.com Inc виявили велику проблему: їх новий рекрутинг не сподобався жінкам.
Команда будувала комп’ютерні програми з 2014 року для перегляду резюме претендентів на роботу з метою механізації пошуку найвищих талантів ...
... Експериментальний інструмент найму компанії використовував штучний інтелект, щоб дати кандидатам на роботу балів від однієї до п’яти зірок ...
... Але до 2015 року компанія зрозуміла, що її нова система не оцінює кандидатів на роботу розробників програмного забезпечення та інших технічних посад гендерно-нейтрально.
Це тому, що комп’ютерні моделі Amazon пройшли навчання ветеринарів, дотримуючись зразків у резюме, поданому компанії протягом 10-річного періоду. Більшість припадає на чоловіків, що відображає домінування чоловіків у технічній галузі. (Для графіки про гендерні розбиття в технічному відношенні див .: тут ) Фактично, система Amazon навчила себе, що кандидати-чоловіки є кращими. Це покарання резюме, яке включало слово "жіночий", як у "капітана жіночого шахового клубу". І це знизило випускників двох загальноосвітніх коледжів, на думку людей, знайомих із цією справою. Назви шкіл не вказали.
Amazon редагував програми, щоб зробити їх нейтральними до цих конкретних умов. Але це не було гарантією того, що машини не придумують інших способів сортування кандидатів, які можуть виявитись дискримінаційними, кажуть люди.
Компанія "Сіетл" врешті-решт розпустила команду до початку минулого року, оскільки керівники втратили надію на проект ...
... Експеримент компанії ... пропонує тематичне вивчення обмежень машинного навчання.
... комп'ютерні вчені, такі як Ніхар Шах, який викладає машинне навчання в університеті Карнегі Меллон, кажуть, що ще багато роботи.
"Як забезпечити справедливість алгоритму, як переконатися, що алгоритм справді тлумачний і зрозумілий - це ще досить далеко", - сказав він.МАСКУЛІНСЬКА МОВА
[Amazon] створила команду в інженерному центрі Amazon в Едінбурзі, яка зросла до десятка людей. Їх метою було розробити ШІ, який міг би швидко просканувати Інтернет та визначити кандидатів, яких варто набрати, - сказали люди, знайомі з цим питанням.
Група створила 500 комп'ютерних моделей, орієнтованих на конкретні функції та місця. Вони навчили кожного розпізнавати близько 50 000 термінів, які з’явились у резюме минулих кандидатів. Алгоритми навчилися надавати незначного значення навичкам, які були загальними для всіх претендентів на ІТ, як, наприклад, вміння писати різні комп'ютерні коди ...
Натомість технологія віддала перевагу кандидатам, які описували себе за допомогою дієслів, які частіше зустрічаються у резюме чоловічих інженерів, наприклад "страчений" і "полонений", - сказала одна людина.
Скажімо, я хочу побудувати статистичну модель, щоб передбачити деякий вихід із особистих даних, як, наприклад, п'ятизірковий рейтинг, щоб допомогти набору нових людей. Скажімо, я також хочу уникнути гендерної дискримінації як етичного обмеження. Враховуючи два строго однакових профілю, окрім статі, вихід моделі повинен бути однаковим.
Чи повинен я використовувати гендер (або будь-які дані, пов'язані з ним) як вхідні дані, і намагатися виправити їх вплив, або уникати використання цих даних?
Як перевірити відсутність дискримінації щодо статі?
Як я виправляю свою модель для даних, які є статистично дискримінантними, але я не хочу бути з етичних причин?