Ми часто чуємо, що штучний інтелект може завдати шкоди або навіть вбити людині, тому може виявитися небезпечним.
Як штучний інтелект може нашкодити нам?
Ми часто чуємо, що штучний інтелект може завдати шкоди або навіть вбити людині, тому може виявитися небезпечним.
Як штучний інтелект може нашкодити нам?
Відповіді:
Є багато поважних причин, через які люди можуть побоюватися (або краще занепокоєти ) ШІ, а не всі пов'язані з роботами та апокаліптичними сценаріями.
Щоб краще проілюструвати ці проблеми, я спробую розділити їх на три категорії.
Це тип штучного інтелекту, на який іде ваше запитання. Надінтелектуальний свідомий ШІ, який знищить / поневолить людство. Це здебільшого нам доводить наукова фантастика. Деякі помітні голлівудські приклади - "Термінатор" , «Матриця» , «Епоха Ультрана» . Найвпливовіші романи були написані Ісааком Азімовим і називаються «серією роботів» (до якої входить «Я, робот» , який також був адаптований як фільм).
Основна передумова більшості цих робіт полягає в тому, що AI буде еволюціонувати до того моменту, коли стане усвідомленим і перевершить людей по інтелекту. Хоча голлівудські фільми в основному зосереджуються на роботах та битві між ними та людьми, недостатньо акценту приділяється дійсному ШІ (тобто «мозку», який контролює їх). Як бічна примітка, через розповідь, цей ШІ зазвичай зображується як суперкомп'ютер, що контролює все (щоб головні герої мали конкретну ціль). Недостатньо вивчено «неоднозначну розвідку» (що, на мою думку, є більш реалістичним).
У реальному світі AI орієнтований на вирішення конкретних завдань! Агент AI, який здатний вирішувати проблеми з різних областей (наприклад, розуміння мови та обробки зображень, керування автомобілем і ... - як люди), називається загальним штучним інтелектом і необхідний для того, щоб AI змогла "думати" і стати свідомий.
Реально, ми ідемо на шляху до загального штучного інтелекту! Це, як кажуть, є немає доказів, чому це не може можна досягти в майбутньому. Отже, навіть якщо ми все ще перебуваємо в грудному віці ШІ, ми не маємо підстав вважати, що ШІ не розвинеться до тієї точки, коли вона розумніша за людей.
Навіть незважаючи на те, що ШІ, що підкорює світ, далекий від його розвитку, є кілька причин для того, щоб сьогодні турбуватися з ШІ , які не залучають роботів! Друга категорія, на яку я хочу трохи більше зупинитися, - це кілька шкідливих застосувань сучасного ШІ.
Я зупинюся лише на AI-програмах, які доступні сьогодні . Деякі приклади AI, які можна використовувати для зловмисних намірів:
DeepFake : техніка накладення обличчя когось на зображення відео іншої людини. Це нещодавно набуло популярності у порно знаменитостей, і його можна використовувати для створення фальшивих новин та підмов. Джерела: 1 , 2 , 3
За допомогою систем масового спостереження та програмного забезпечення для розпізнавання обличчя, здатних розпізнавати мільйони облич в секунду , AI можна використовувати для масового спостереження. Незважаючи на те, що ми думаємо про масовий нагляд, ми думаємо про Китай, багато західних міст, як Лондон , Атланта та Берлін, є одними з найбільш обстежених міст світу . Китай зробив щось на крок далі, застосувавши систему соціального кредитування - систему оцінювання цивільних осіб, яка, здається, була виведена прямо зі сторінок Джорджа Оруелла 1984 року.
Вплив на людей через соціальні медіа . Окрім визнання смаків користувачів з метою цілеспрямованого маркетингу та додавання місць розташування (звичайна практика багатьох інтернет-компаній), AI можна зловмисно використовувати для впливу на голосування людей (серед іншого). Джерела: 1 , 2 , 3 .
Злому .
Військові програми, наприклад, напади безпілотників, системи націлювання на ракети.
Ця категорія є досить суб’єктивною, але розвиток ШІ може мати певні побічні ефекти. Відмінність цієї категорії від попередньої полягає в тому, що ці ефекти, хоча і є шкідливими, не робляться навмисно; скоріше вони трапляються з розвитком ШІ. Деякі приклади:
Вакансії стають зайвими . По мірі покращення AI багато робочих місць будуть замінені AI. На жаль, з цим не вдається зробити багато речей, оскільки більшість технологічних розробок мають цей побічний ефект (наприклад, сільськогосподарська техніка призвела до того, що багато фермерів втратили роботу, автоматизація замінила багатьох заводських робітників, комп'ютери зробили те саме).
Підсилення упередженості в наших даних . Це дуже цікава категорія, оскільки ШІ (і особливо Нейронні мережі) є настільки ж хорошими, як і дані, на яких вони навчаються, і мають тенденцію увічнення і навіть посилення різних форм соціальних упереджень, вже наявних у даних. Існує багато прикладів мереж, що демонструють расистську та сексистську поведінку. Джерела: 1 , 2 , 3 , 4 .
Я згадав, що все це вже в самому розпалі?
Хоча між AI та AGI немає чіткої межі, у цьому розділі йдеться про те, що відбувається, коли ми рухаємось далі до AGI. Я бачу дві альтернативи:
У першому випадку, якщо AI "переходить в шахрайство", ми можемо побудувати інші ШІ, щоб їх перехитрити і нейтралізувати. У другому випадку ми не можемо, і ми приречені. ШІ буде новою формою життя, і ми можемо вимерти.
Ось деякі можливі проблеми:
Я думаю, що AGI йде, і нам потрібно пам'ятати про ці проблеми, щоб ми могли їх мінімізувати.
На додаток до інших відповідей, я хотів би додати приклад нюкінгу фабрики cookie:
Інструменти машинного навчання в основному намагаються виконати мету, описану людиною. Наприклад, люди створюють ШІ, що працює на заводі cookie. Мета, яку вони реалізують, - продати якомога більше файлів cookie з максимально вигідною маржею.
А тепер уявіть, що AI є досить потужним. Цей AI помітить, що якщо він занурить усі інші фабрики для виробництва печива, кожному доведеться купувати файли cookie на своїй фабриці, збільшуючи збут та прибуток.
Отже, людська помилка тут не передбачає покарання за використання насильства в алгоритмі. Це легко не помітити, оскільки люди не очікували, що алгоритм прийде до цього висновку.
Мій улюблений сценарій нанесення шкоди AI передбачає не високий інтелект, а низький інтелект. Конкретніше, гіпотеза сірого гоо .
Тут працює автоматичний процес, що самовідтворюється, amok і перетворює всі ресурси в копії себе.
Сенс у тому, що ШІ не "розумний" у сенсі володіння високим інтелектом або загальним інтелектом - він просто дуже хороший в одній речі і має можливість реплікації експоненціально.
Я б сказав, що найбільшою реальною загрозою буде незбалансування / зрив, який ми вже бачимо. Зміни виведення 90% з країни без роботи є реальними, а результати (які будуть ще більш нерівномірним розподілом багатства) жахливі, якщо ви їх продумаєте.
Я маю приклад, який іде в чомусь протилежному напрямку від страхів громадськості, але це дуже реальна річ, яку я вже бачу, що відбувається. Це не є специфічним для ШІ, але я думаю, що через ШІ воно погіршиться. Проблема полягає в тому, що люди довіряють висновкам ШІ в критичних випадках.
У нас є багато напрямків, в яких людські експерти повинні приймати рішення. Візьмемо для прикладу ліки - чи слід давати ліки Х чи ліки Y? Ситуації, про які я маю на увазі, часто є складними проблемами (в сенсі Cynefin), коли дійсно добре, щоб хтось дуже уважно звертав увагу і використовував багато досвіду, а результат дійсно має значення.
Існує попит у медичних інформатиків написати системи підтримки прийняття рішень щодо подібної проблеми в медицині (і, мабуть, для такого ж типу в інших сферах). Вони роблять все можливе, але завжди очікується, що експерт людини завжди буде розглядати пропозицію системи лише як ще одну думку при прийнятті рішення. У багатьох випадках було б безвідповідально обіцяти що-небудь інше, враховуючи стан знань та доступні для розробників ресурси. Типовим прикладом може бути використання комп’ютерного зору в радіоміці: пацієнт отримує КТ і ШІ повинен обробити зображення і вирішити, чи є у пацієнта пухлина.
Звичайно, ШІ не є ідеальним. Навіть якщо вимірювати по відношенню до золотого стандарту, він ніколи не досягає 100% точності. І тоді є всі випадки, коли вона працює добре проти метрики власних цілей, але проблема була настільки складною, що метрика мети не сприймає її добре - я не можу привести приклад у контексті КТ, але я думаю ми бачимо це навіть у SE, де алгоритми надають перевагу популярності в публікаціях, що є недосконалим проксі для фактичної коректності.
Ви, напевно, читали цей останній абзац і кивали разом: "Так, я дізнався, що в першому вступному курсі ML взяв участь". Вгадай що? Лікарі ніколи не приймали вступний курс МЛ. Вони рідко мають достатньо статистичної грамотності, щоб зрозуміти висновки статей, що з’являються в медичних журналах. Коли вони розмовляють зі своїм 27-м пацієнтом, 7 годин у 16-годинну зміну, голодні та емоційно виснажені, а КТ виглядає не так чітко, але комп'ютер каже, що "це не злоякісне утворення", вони не роблять займіть ще десять хвилин, щоб більше сконцентруватися на зображенні, або подивитися підручник, або порадитися з колегою. Вони просто йдуть із тим, що говорить комп’ютер, вдячні, що їхнє когнітивне навантаження ще не зростає. Таким чином вони перетворюються на те, щоб бути експертами, щоб бути людьми, які щось читають з екрану. Гірше, у деяких лікарнях адміністрація не лише довіряє комп’ютерам, але також з’ясувала, що вони є зручними відпустками. Таким чином, у лікаря погана ідея, яка суперечить виходу комп'ютера, їм стає важко діяти на цю думку та захищати себе, що вони вирішили перекрити думку ШІ.
AI - це потужні та корисні інструменти, але завжди знайдуться завдання, коли вони не зможуть замінити інструментаря.
Це лише є доповненням до інших відповідей, тому я не буду обговорювати можливість ШІ, що намагається охопити людство.
Але різний ризик вже є тут. Я б назвав це бездоганною технологією . Мене навчали науці і техніці, і ІМХО, AI сам по собі не має ні поняття добра, ні зла, ні свободи. Але вона будується і використовується людьми, і через це може бути залучена нераціональна поведінка.
Я б почав із прикладу реального життя, більше пов'язаного із загальними ІТ, ніж з ІІ. Я буду говорити про віруси та іншу шкідливість. Комп'ютери - це досить дурні машини, які добре обробляти дані. Тож більшість людей покладаються на них. Деякі (погані) люди розробляють шкідливі програми, які порушать правильну поведінку комп’ютерів. І всі ми знаємо, що вони можуть мати жахливий вплив на малі та середні організації, які недостатньо підготовлені до комп’ютерних втрат.
AI заснований на комп'ютері, тому він уразливий для атак типу комп’ютера. Ось мій приклад - автомобіль, керований AI. Технологія майже готова до роботи. Але уявіть, що від зловмисного програмного забезпечення автомобіль намагається напасти на інших людей на дорозі. Навіть не маючи прямого доступу до коду ШІ, його можуть атакувати бічні канали . Наприклад, він використовує камери для зчитування сигнальних знаків. Але через те, як реалізується машинне навчання, AI, як правило, не аналізує сцену так само, як це робить людина. Дослідники показали, що можна змінити знак таким чином, що нормальна людина все ще побачить початковий знак, а ШІ побачить інший. Уявіть тепер, що знак є знаком пріоритету дороги ...
Що я маю на увазі, що навіть якщо ШІ не має злих намірів, погані хлопці можуть спробувати змусити його поводитися погано. І чим важливіші дії будуть делеговані AI (медецин, машини, літаки, не кажучи про бомби), тим вище ризик. Сказав інакше, я не дуже боюся ШІ за себе, але за те, як його можуть використовувати люди.
Я думаю, що один з найбільш реальних (тобто пов'язаних з поточними, існуючими ІС) ризиками полягає в тому, що сліпо покладаються на непідконтрольні ШІ з двох причин.
Фізична помилка в системах ШІ може почати давати дико неправильні результати в регіонах, в яких їх не перевіряли, оскільки фізична система починає надавати неправильні значення. Це іноді викуповується шляхом самотестування та надмірності, але все ж вимагає періодичного нагляду людини.
Інтелектуальні програми для самостійного навчання також мають слабке програмне забезпечення - їх вагові мережі або статистичні уявлення можуть наближатися до місцевих мінімумів, коли вони застрягли з одним неправильним результатом.
Це, на щастя, часто обговорюється, але варто зазначити: класифікація вхідних систем AI часто є необ’єктивною, оскільки набір даних щодо тренінгу / тестування також був упередженим. Це призводить до того, що ШІ не визнають людей певної етнічної приналежності для більш очевидного прикладу. Однак є менш очевидні випадки, які можуть бути виявлені лише після якоїсь поганої аварії, наприклад, AI не розпізнає певні дані та випадково запустив вогонь на заводі, зламав обладнання або поранив людей.
Якщо робот схожий на людський машинний інтерфейс, пристрій такий же, як автомобіль на дистанційному керуванні. Можна поговорити з оператором за джойстиком і домовитись про бажану поведінку. Роботи з дистанційним керуванням - це безпечні винаходи, оскільки їх дії можна простежити на людях, і їх мотивацію можна передбачити. Їх можна використовувати для покращення повсякденного життя, і в них смішно грати.
Навпаки, деякі роботи не керуються джойстиками, але працюють із внутрішнім генератором кісток. Іграшка з кубиками відома своєю соціальною роллю в азартних іграх, але вона також має містичне значення. Зазвичай випадковий генератор сильно пов'язаний з хаотичною поведінкою, яка контролюється темними силами поза впливом людини. Електронна кістка, вбудована в робота і вдосконалена алгоритмом навчання, є протилежністю людського машинного інтерфейсу, але це потенційний винищувач проблем, тому що випадково керований робот гратиме в ігри з людьми, яких не можна передбачити. Неможливо передбачити наступну кількість кісток, тому робот також буде вести себе різко.
Зв’язок між випадковими контрольованими іграми та негативним соціальним впливом був пояснений у наступному реченні.
цитата: «У багатьох традиційних незахідних суспільствах азартні гравці можуть молитися до богів за успіх і пояснювати перемоги та програші з точки зору божественної волі. "Binde, Per. "Азартні ігри та релігія: Історія злагоди та конфлікту". Журнал випусків азартних ігор 20 (2007): 145-165.
Наразі люди існують в еколого-економічній ніші «речі, яка думає».
ШІ - це теж річ, яка думає, тому вона буде вторгнутись у нашу еколого-економічну нішу. Як в екології, так і в економіці, мати ще щось, що займає вашу нішу, не є великим планом для подальшого виживання.
Наскільки саме виживаність людини порушена цим, буде досить хаотично. Існує купа правдоподібних способів, що AI можуть загрожувати виживанню людини як виду, або навіть як домінуючої життєвої форми.
Припустимо, існує сильний ШІ без «супер етики», який дешевший у виробництві, ніж людина (включаючи виготовлення «тіла» чи способу маніпулювання світом), і розумніший чи розумніший за людину.
Це випадок, коли ми починаємо конкурувати з цим ШІ за ресурси. Це станеться на мікроекономічних масштабах (чи наймаємо людину, чи купуємо / будуємо / орендуємо / наймаємо ШІ для вирішення цієї проблеми?). Залежно від швидкості, з якою ІС стають дешевими та / або розумнішими за людей, це може статися повільно (можливо, галузь за один раз) або надзвичайно швидко.
У капіталістичній конкуренції ті, хто не переходить на більш дешеві ШІ, закінчуються поза конкуренцією.
Тепер, у короткотерміновій перспективі, якщо переваги ШІ лише незначні, висока вартість навчання людей за 20 років, перш ніж вони стають продуктивними, може зробити цей процес повільнішим. У цьому випадку, можливо, варто заплатити докторові вище заробітної плати, щоб діагностувати хворобу замість ШІ, але, мабуть, не варто виплачувати їхні студентські позики. Тож нові Лікарі людини швидко перестануть навчатися, а існуючі Лікарі збідняться. Тоді понад 20-30 років ШІ повністю замінить лікарів з діагностичною метою.
Якщо переваги ШІ великі, то це було б швидко. Лікарям навіть не варто було б платити заробітну плату на рівні бідності, щоб робити діагностику людини. Ви можете бачити щось подібне, що відбувається з м'язовим землеробством, коли землеробство на основі бензину взяло на себе.
Під час минулих промислових революцій той факт, що люди здатні думати, означає, що ви могли б замінити надлишки людських робітників на інші дії; виробничі лінії, робочі місця з обслуговування послуг, комп’ютерне програмування тощо. Але в цій моделі AI дешевше навчатись і будувати та настільки ж розумний чи розумніший, ніж люди на цій роботі.
Як свідчить арабська весна, спричинена етанолом, культури та посіви можуть використовуватися для палива як машин, так і людей. Коли машини будуть більш ефективними з точки зору перетворення урожаю на корисну роботу, ви почнете бачити, як ціна на їжу зростає. Зазвичай це призводить до заворушень, оскільки люди дійсно не люблять голодувати до смерті і готові ризикувати власним життям, щоб скинути уряд, щоб запобігти цьому.
Ви можете зневажати людей, надаючи субсидовану їжу тощо. Поки це не є економічно калічним (тобто, якщо досить дорого, це може призвести до того, що ви переможете в інших місцях, які цього не роблять), це просто політично нестабільно.
Як альтернатива, в короткий термін каста власності, яка отримує прибуток від все більш ефективної економіки, що управляється ІІ, може заплатити за поліцію чи військову касту, щоб придушити ці заворушення. Це вимагає, щоб поліцейські / військові касти були нижчим до середнього класу за рівнем життя, щоб забезпечити постійну лояльність - ви не хочете, щоб вони приєднувалися до бунтівників.
Отож, один із центрів прибутку, до якого можна поставити AI, - це військова та поліцейська діяльність на базі ШІ. Безпілотники, які доставляють летальні та не летальні боєприпаси на основі обробки візуальних та інших каналів даних, можуть зменшити кількість поліції / військових середнього класу, необхідних для зменшення заворушень, пов'язаних з ціною на продукти харчування, або інших нестабільності. Як ми вже припускали, що у ШІ можуть бути органи та тренування дешевше, ніж біологічні люди, це також може збільшити кількість сили, яку можна розгорнути за витрачений долар.
На даний момент ми говоримо про поліцію та військових, котрі в основному працюють на ШІ, які використовуються для запобігання повалення голодуючих людей від повалення економіки, здійснюваної ШІ, та вилучення засобів виробництва з більш ефективного використання, яке воно зараз застосовує.
Жорстокі люди, які "володіють" системою на вершині, приймають місцеві раціональні рішення для оптимізації свого багатства та могутності. Вони можуть або не можуть зберігатися довго; до тих пір, поки вони витрачають відносно невелику кількість ресурсів і не псують економіку, що управляє ШІ, не буде великого тиску на вибір, щоб позбутися від них. З іншого боку, оскільки вони не вносять нічого в цінність, вони позиціонують "на вершині" політично нестабільно.
Цей процес передбачав "сильний" загальний ШІ. Більш вузькі ШІ можуть витягнути це на частини. Наприклад, дешевий ефективний комп’ютер для діагностики може звести більшість лікарів у бідність на дивно короткий проміжок часу. Самостійне керування автомобілями могло поглинути 5% -10% економії. Інформаційні технології вже поглинають сектор роздрібної торгівлі зі скромним AI.
Кажуть, що кожен технологічний прогрес призводить до більшої та кращої роботи для людини. І це було вірно протягом останніх 300+ років.
Але до 1900 р. Також було правдою, що кожен технічний прогрес призводив до нових та кращих робочих місць для коней. Потім прибули ДВС і автомобіль, і зараз працюючих коней набагато менше; решта коней, в основному, еквівалент особистих слуг людини: тримається за новизну "вау, круто, коня" та весело їздити та контролювати величезну тварину.
На додаток до багатьох наданих відповідей, я б порушив питання змагальних прикладів в області моделей зображень.
Приклади змагань - зображення, обурені спеціально розробленим шумом, який часто непомітний для людського спостерігача, але сильно змінює передбачення моделі.
Приклади включають:
Вплив на прогнозований діагноз у рентгенографії грудної клітки
Впливає на виявлення дорожніх знаків, необхідних для автономних транспортних засобів.
ШІ, який використовується для вирішення реальної світової проблеми, може становити загрозу для людства і не вимагає точно розуму, це також вимагає ступеня людської дурості.
На відміну від людей, ШІ знайшов би найбільш логічну відповідь без обмеження емоцій, етики чи навіть жадібності… Тільки логіка. Запитайте у цього ШІ, як вирішити проблему, яку створили люди (наприклад, Зміна клімату), і її рішенням може бути усунення всієї людської раси для захисту планети. Очевидно, що це вимагатиме надання ШІ можливості діяти за своїм результатом, який підводить мене до моєї попередньої точки зору, людської дурості.
Штучний інтелект може нашкодити нам будь-яким із способів природного інтелекту (людини). Відмінність між природним та штучним інтелектом зникне, коли людина почне посилювати себе більш інтенсивно. Інтелект більше не може характеризувати особистість і стане безмежним володінням. Шкоди буде завдано стільки, скільки люди можуть зазнати за збереження своєї еволюціонуючої самоідентичності.
Мало хто розуміє, що нашу глобальну економіку слід вважати AI: - Грошові операції - це сигнали через нейронну мережу. Вузлами в нейронній мережі будуть різні корпорації або приватні особи, які платять або отримують гроші. - Це техногенне, тому кваліфікується як штучне
Ця нейронна мережа є кращою у своєму завданні, ніж люди: Капіталізм завжди перемагає економіку, яку планує людина (планова економія).
Чи небезпечна ця нервова сітка? Можливо, це відрізняється, якщо ви генеральний директор, який заробляє велику порівняно з рибалкою в річці, забрудненій відходами підприємств.
Як цей ШІ став небезпечним? Ви можете відповісти на це через жадібність людини. Наше творіння відображає нас самих. Іншими словами: ми не навчали свою нервову мережу добре вести себе. Замість того, щоб навчати нейронну мережу для поліпшення якості життя для всіх людей, ми навчили її робити багатішими фоки.
Чи легко було б навчити цей ШІ вже не небезпечний? Можливо, ні, можливо, якийсь ШІ просто більший за життя. Це просто виживання найкращих.