Як штучний інтелект може нашкодити нам?


51

Ми часто чуємо, що штучний інтелект може завдати шкоди або навіть вбити людині, тому може виявитися небезпечним.

Як штучний інтелект може нашкодити нам?


6
Це дещо широко, оскільки запропоновано багато причин та сценаріїв, в яких ШІ може стати небезпечним. Наприклад, як DuttaA пропонує вище, люди можуть створити інтелектуальні системи озброєння, які вирішують, на що націлити, і це справжнє занепокоєння, оскільки можливо вже за допомогою вузького ШІ. Можливо, надайте більше контексту конкретним страхам, які ви хочете зрозуміти, цитуючи або посилаючись на певну проблему, яку ви прочитали (будь ласка, скористайтеся редагуванням ).
Ніл Слейтер

4
@NeilSlater Так, це може бути занадто широким, але я думаю, що ця відповідь ai.stackexchange.com/a/15462/2444 дає певні правдоподібні причини. Я відредагував питання, щоб видалити можливо неправильне припущення.
nbro

2
Це питання конкретно стосується "надінтеллігентності" чи AI взагалі? (Наприклад, якщо гіпотетична надрозвідка, то гіпотетична " проблема управління " є проблемою. Однак сучасні автоматизовані системи озброєння не будуть суперінтелектуальними, а також автономні транспортні засоби не можуть заподіяти шкоду людині.)
DukeZhou

@DukeZhou ОР спочатку і прямо не згадував про суперінтеграцію, але я вважаю, що він мав на увазі все, що можна вважати ШІ, включаючи СІ.
nbro

3
Спочатку запитайте, як нормальний інтелект може завдати вам шкоди? Тоді відповідь така ж.
J ...

Відповіді:


47

тл; д-р

Є багато поважних причин, через які люди можуть побоюватися (або краще занепокоєти ) ШІ, а не всі пов'язані з роботами та апокаліптичними сценаріями.

Щоб краще проілюструвати ці проблеми, я спробую розділити їх на три категорії.

Свідомий А.І.

Це тип штучного інтелекту, на який іде ваше запитання. Надінтелектуальний свідомий ШІ, який знищить / поневолить людство. Це здебільшого нам доводить наукова фантастика. Деякі помітні голлівудські приклади - "Термінатор" , «Матриця» , «Епоха Ультрана» . Найвпливовіші романи були написані Ісааком Азімовим і називаються «серією роботів» (до якої входить «Я, робот» , який також був адаптований як фільм).

Основна передумова більшості цих робіт полягає в тому, що AI буде еволюціонувати до того моменту, коли стане усвідомленим і перевершить людей по інтелекту. Хоча голлівудські фільми в основному зосереджуються на роботах та битві між ними та людьми, недостатньо акценту приділяється дійсному ШІ (тобто «мозку», який контролює їх). Як бічна примітка, через розповідь, цей ШІ зазвичай зображується як суперкомп'ютер, що контролює все (щоб головні герої мали конкретну ціль). Недостатньо вивчено «неоднозначну розвідку» (що, на мою думку, є більш реалістичним).

У реальному світі AI орієнтований на вирішення конкретних завдань! Агент AI, який здатний вирішувати проблеми з різних областей (наприклад, розуміння мови та обробки зображень, керування автомобілем і ... - як люди), називається загальним штучним інтелектом і необхідний для того, щоб AI змогла "думати" і стати свідомий.

Реально, ми ідемо на шляху до загального штучного інтелекту! Це, як кажуть, є немає доказів, чому це не може можна досягти в майбутньому. Отже, навіть якщо ми все ще перебуваємо в грудному віці ШІ, ми не маємо підстав вважати, що ШІ не розвинеться до тієї точки, коли вона розумніша за людей.

Використання AI зі шкідливим наміром

Навіть незважаючи на те, що ШІ, що підкорює світ, далекий від його розвитку, є кілька причин для того, щоб сьогодні турбуватися з ШІ , які не залучають роботів! Друга категорія, на яку я хочу трохи більше зупинитися, - це кілька шкідливих застосувань сучасного ШІ.

Я зупинюся лише на AI-програмах, які доступні сьогодні . Деякі приклади AI, які можна використовувати для зловмисних намірів:

  • DeepFake : техніка накладення обличчя когось на зображення відео іншої людини. Це нещодавно набуло популярності у порно знаменитостей, і його можна використовувати для створення фальшивих новин та підмов. Джерела: 1 , 2 , 3

  • За допомогою систем масового спостереження та програмного забезпечення для розпізнавання обличчя, здатних розпізнавати мільйони облич в секунду , AI можна використовувати для масового спостереження. Незважаючи на те, що ми думаємо про масовий нагляд, ми думаємо про Китай, багато західних міст, як Лондон , Атланта та Берлін, є одними з найбільш обстежених міст світу . Китай зробив щось на крок далі, застосувавши систему соціального кредитування - систему оцінювання цивільних осіб, яка, здається, була виведена прямо зі сторінок Джорджа Оруелла 1984 року.

  • Вплив на людей через соціальні медіа . Окрім визнання смаків користувачів з метою цілеспрямованого маркетингу та додавання місць розташування (звичайна практика багатьох інтернет-компаній), AI можна зловмисно використовувати для впливу на голосування людей (серед іншого). Джерела: 1 , 2 , 3 .

  • Злому .

  • Військові програми, наприклад, напади безпілотників, системи націлювання на ракети.

Побічні ефекти ШІ

Ця категорія є досить суб’єктивною, але розвиток ШІ може мати певні побічні ефекти. Відмінність цієї категорії від попередньої полягає в тому, що ці ефекти, хоча і є шкідливими, не робляться навмисно; скоріше вони трапляються з розвитком ШІ. Деякі приклади:

  • Вакансії стають зайвими . По мірі покращення AI багато робочих місць будуть замінені AI. На жаль, з цим не вдається зробити багато речей, оскільки більшість технологічних розробок мають цей побічний ефект (наприклад, сільськогосподарська техніка призвела до того, що багато фермерів втратили роботу, автоматизація замінила багатьох заводських робітників, комп'ютери зробили те саме).

  • Підсилення упередженості в наших даних . Це дуже цікава категорія, оскільки ШІ (і особливо Нейронні мережі) є настільки ж хорошими, як і дані, на яких вони навчаються, і мають тенденцію увічнення і навіть посилення різних форм соціальних упереджень, вже наявних у даних. Існує багато прикладів мереж, що демонструють расистську та сексистську поведінку. Джерела: 1 , 2 , 3 , 4 .


4
Я не розумію, чому "робота стає зайвою" - це серйозна проблема. Яким би прекрасним був світ, якби нікому (або принаймні переважній більшості людей) не потрібно було працювати і натомість могли зосередитись на своїх захопленнях та насолоді від життя.
кукіс

4
@kukis Як можна отримати їжу, будинок тощо без роботи, якщо ви вже не багаті? Робота означає виживання для більшості людей.
nbro

6
Що стосується того, що робочі місця стають зайвими, то, схоже, ми можемо щось з цим зробити, тобто переробити наші економічні моделі, щоб не покладатися на людей, які мають роботу. Я маю на увазі, якщо наші економічні системи будуть руйнуватися, залившись достатньою дешевою робочою силою, то вони, очевидно, помиляються. І з огляду на те, що ми очікуємо, що цей недолік стане небезпечним у найближчому майбутньому, його слід виправити.
Нат

2
Інший приклад, де AI може спричинити серйозні проблеми, - це торгівля акціями. Переважна більшість біржових торгів в цей час здійснюються все більш конкурентоспроможними ІС, які можуть реагувати набагато швидше, ніж торговці людьми. Але це дійшло до того, що навіть люди, які їх написали, не обов'язково розуміють причину прийняття ними рішення AI, і на ринках трапляються катастрофічні наслідки, оскільки алгоритми прогнозування запасів зійшли з ладу.
Даррель Гофман

8
@penelope не кожна робота, яку AI намагається замінити, - це "низький інтерес". Я б заперечував, що існує велика кількість затребуваних робочих місць, які можна буде замінити у (не такому віддаленому) майбутньому. Деякі приклади - лікарі, торговці та пілоти. Якщо ШІ продовжує прогресувати і продовжує вдосконалюватися в діагностуванні захворювань, було б нерозумно думати, що роботи лікарів будуть скорочені.
Djib2011

14

Короткий термін

  • Фізичні аварії , наприклад, через промислову техніку, автопілот літаків, автомобілі, що керують автотранспортом. Особливо у випадку незвичних ситуацій таких як екстремальна погода чи несправність датчика. Як правило, ШІ буде погано функціонувати в умовах, коли він не був випробуваний широко.
  • Соціальний вплив такі як зменшення кількості робочих місць, бар'єри для непривілейованих груп. позики, страхування, умовно-дострокове звільнення.
  • Двигуни рекомендацій все більше і більше маніпулюють нами, щоб змінити свою поведінку (а також посилити власні бульбашки "маленького світу"). Системи рекомендацій регулярно подають маленьким дітям невідповідний вміст різного роду, часто тому, що творці вмісту (наприклад, на YouTube) використовують правильну начинку для ключових слів, щоб здатись, що це не стосується дітей.
  • Політичні маніпуляції ... Думаю, досить сказати.
  • Імовірне заперечення вторгнення в приватне життя . Тепер, коли AI може читати вашу електронну пошту і навіть телефонувати за вас, люди можуть легко діяти на вашу особисту інформацію і стверджувати, що вони отримали комп'ютер, щоб це зробити.
  • Перетворення війни у ​​відеоігри , тобто заміна солдатів машинами, які експлуатуються віддалено, тим, хто не загрожує небезпекою та віддалений від своїх жертв.
  • Відсутність прозорості . Ми довіряємо машинам для прийняття рішень з дуже невеликими засобами, щоб отримати виправдання за рішенням.
  • Споживання ресурсів та забруднення. Це не лише проблема ШІ, однак кожне вдосконалення AI створює більший попит на Big Data, разом вони розширюють потребу в зберіганні, обробці та роботі в мережі. Крім споживання електроенергії та рідкісних корисних копалин, інфраструктуру потрібно утилізувати після її багаторічного терміну експлуатації.
  • Спостереження - завдяки всюдисущості смартфонів і слухаючих пристроїв є золота шахта даних, але занадто багато, щоб просіяти кожну частину. Зрозуміло, отримайте ШІ, щоб просіяти його!
  • Кібербезпека - кіберзлочинці все більше використовують ШІ для нападу на цілі.

Я згадав, що все це вже в самому розпалі?

Тривалий термін

Хоча між AI та AGI немає чіткої межі, у цьому розділі йдеться про те, що відбувається, коли ми рухаємось далі до AGI. Я бачу дві альтернативи:

  • Або ми розвиваємо AGI в результаті вдосконаленого розуміння природи інтелекту,
  • або ми ляпаємо разом щось, що, здається, працює, але ми не дуже добре розуміємо, як і багато машинного навчання зараз.

У першому випадку, якщо AI "переходить в шахрайство", ми можемо побудувати інші ШІ, щоб їх перехитрити і нейтралізувати. У другому випадку ми не можемо, і ми приречені. ШІ буде новою формою життя, і ми можемо вимерти.

Ось деякі можливі проблеми:

  • Копіювати і вставляти. Одна з проблем AGI полягає в тому, що він цілком можливо запускається на настільному комп'ютері, що створює ряд проблем:
    • Діти сценарію - люди могли завантажувати AI та встановлювати параметри руйнівно. Відповідно,
    • Злочинні або терористичні групи зможуть налаштувати ІС на свій смак. Вам не потрібно шукати експерта з виготовлення бомб або біозброї, якщо ви можете завантажити AI, скажіть йому, щоб зробити деякі дослідження, а потім дати покрокові інструкції.
    • Самовідтворюється AI - з цього приводу є маса комп’ютерних ігор. ШІ ламається і поширюється, як вірус. Чим більше потужність процесора, тим краще вона захищається і поширюється далі.
  • Вторгнення в обчислювальні ресурси . Цілком ймовірно, що більше обчислювальної потужності вигідно для ШІ. AI може купувати або викрадати серверні ресурси або ресурси настільних і мобільних пристроїв. Якщо сприйняти крайність, це може означати, що всі наші пристрої просто стали непридатними, що негайно спричинило б хаос у світі. Це також може означати масове споживання електроенергії (і важко було б "витягнути вилку", оскільки електростанції контролюються комп'ютером!)
  • Автоматизовані фабрики.АГІ, що бажає отримати більше фізичної присутності у світі, може взяти на себе заводи з виробництва роботів, які могли б будувати нові фабрики і по суті створювати тіла для себе.
  • Це доволі філософські міркування, але дехто стверджує, що AI знищить те, що робить нас людьми:
    • Недосконалість. Що робити, якщо безліч суб'єктів ШІ були розумнішими, швидшими, надійнішими та креативнішими, ніж найкращі люди?
    • Безглуздість. З роботами, що замінюють потребу у фізичній праці, а ІІ, які замінюють потребу в інтелектуальній праці, нам насправді нічого не робити. Ніхто не збирається знову отримати Нобелівську премію, оскільки ШІ вже буде попереду. Чому навіть отримувати освіту в першу чергу?
    • Монокультура / застій - у різних сценаріях (наприклад, єдиний «доброзичливий диктатор» AGI) суспільство може закріпитися у вічній схемі без нових ідей чи будь-яких змін (приємно, що це може бути). В основному, хоробрий Новий Світ.

Я думаю, що AGI йде, і нам потрібно пам'ятати про ці проблеми, щоб ми могли їх мінімізувати.


1
Я думаю, що такий тип штучного інтелекту, який здатний перепрограмувати фабрики для створення роботів для себе, знаходиться далеко. Сучасний «AI» - це просто справді витончене розпізнавання візерунків.
користувач253751

Я сказав "довгостроковий" та "AGI". AGI, за визначенням, значно виходить за складне розпізнавання шаблонів. І хоча "складне розпізнавання шаблонів" - це далеко не найпоширеніша річ, яка використовується в реальних додатках, в інших напрямках вже багато роботи (зокрема, планування декомпозиції / дій, що IMO є основним елементом цих типів сценаріїв. )
Артелій

8

На додаток до інших відповідей, я хотів би додати приклад нюкінгу фабрики cookie:

Інструменти машинного навчання в основному намагаються виконати мету, описану людиною. Наприклад, люди створюють ШІ, що працює на заводі cookie. Мета, яку вони реалізують, - продати якомога більше файлів cookie з максимально вигідною маржею.

А тепер уявіть, що AI є досить потужним. Цей AI помітить, що якщо він занурить усі інші фабрики для виробництва печива, кожному доведеться купувати файли cookie на своїй фабриці, збільшуючи збут та прибуток.

Отже, людська помилка тут не передбачає покарання за використання насильства в алгоритмі. Це легко не помітити, оскільки люди не очікували, що алгоритм прийде до цього висновку.


8
Це нагадує мені приклад із реального світу, який я колись бачив на reddit, де хтось навчав AI, щоб піднятися на деякі сходи в Unity. Він виявив, що він може сильно натиснути на землю, і фізика зблисне, змусивши його літати у повітря і бути найшвидшим на вершину.
GammaGames

2
Або, що ще гірше, було б вирішено, що люди створені з атомів, які краще використовувати для виготовлення печива.
nick012000

Я чув цей аргумент раніше. Однією з помилок прогнозування І-го дня ІІ є те, що ми не можемо передбачити, що зробить ШІ. Цілком можливо, що AI визнає, що витіснення інших компаній із виробництва печива може скинути глобальну економіку та знищити будь-який потенційний попит на куки ... Закон про економіку, пропозицію та попит
Zakk Diaz

8

Мій улюблений сценарій нанесення шкоди AI передбачає не високий інтелект, а низький інтелект. Конкретніше, гіпотеза сірого гоо .

Тут працює автоматичний процес, що самовідтворюється, amok і перетворює всі ресурси в копії себе.

Сенс у тому, що ШІ не "розумний" у сенсі володіння високим інтелектом або загальним інтелектом - він просто дуже хороший в одній речі і має можливість реплікації експоненціально.


3
FWIW, люди вже сірі гуси. Ми егоїстичний сірий гу, який не хоче бути замінений ще ефективнішим сірим гуком.
користувач253751

1
@immibis Це, звичайно, філософська POV, а не факт. Є багато людей, які розрізняють людину та машини, що самовідтворюються / підтримують себе. Фільми про зомбі не були б дуже успішними, якби більшість з
думками сприйняла

1
@immibis Чи читали ви у Вікіпедії статті про сіру гоу, на яку ця відповідь посилається? Термін відноситься до неінтелектуальних (нано) машин, які йдуть в курсі, а не до розумної поведінки. Тому я б сказав, що ні, люди це не є (і це не AI), оскільки ми не їли Альберта Ейнштейна, коли могли.
kubanczyk

@kubanczyk основне значення терміна "інтелект" здається невірно зрозумілим як в наукових колах, так і в широкій громадськості. Інтелект - це спектр, загалом відносний (до інших механізмів прийняття рішень) і заснований на корисності будь-якого даного рішення в контексті проблеми. Тож сірий Гуо був би розумним, тільки щоб інтелект був обмежений і вузький.
DukeZhou

5

Я б сказав, що найбільшою реальною загрозою буде незбалансування / зрив, який ми вже бачимо. Зміни виведення 90% з країни без роботи є реальними, а результати (які будуть ще більш нерівномірним розподілом багатства) жахливі, якщо ви їх продумаєте.


2
Люди сказали те ж саме під час промислової революції, яка зробила більшість робочих місць у сільському господарстві зайвими. Хоча ви, можливо, не помиляєтесь, і я особисто переживаю за те, що тенденції в дослідженні дослідження показують, що це може не викликати занепокоєння, і, ймовірно, відкриються нові робочі місця.
Programmdude

@Programmdude - Я думаю, що існує принципова різниця між змінами промислової революції та навіть усуненням секретарських робочих місць через появу П, що відбудеться в найближчі десятиліття.
Майо

2
@Programmdude І люди мали рацію. Промислова революція змінила все щодо того, як живуть люди, вона була надзвичайно руйнівна з точки зору розподілу багатства та здатності людей існувати на фермерських доходах. З іншої точки зору: рабовласники, озирнувшись через кілька сотень років у майбутнє, ймовірно, не сприйматимуть впливу ШІ на цей період як руйнівні, оскільки це сформувало їх ситуацію.
Білл К

@BillK Я був з тобою аж до тих пір, поки не почалася частина про рабовласників. Ви знаєте, що ШІ не усвідомлюють себе, правда?
Рей

@Ray Я не мав на увазі AIs, я мав на увазі людей, які контролювали AI (І тому мали б усе багатство), і насправді це був просто спосіб вказати, що речі можуть бути незрозуміло для нас, але це не буде ' не відчуваю, що по-іншому оглядаюсь назад.
Білл К

5

Я маю приклад, який іде в чомусь протилежному напрямку від страхів громадськості, але це дуже реальна річ, яку я вже бачу, що відбувається. Це не є специфічним для ШІ, але я думаю, що через ШІ воно погіршиться. Проблема полягає в тому, що люди довіряють висновкам ШІ в критичних випадках.

У нас є багато напрямків, в яких людські експерти повинні приймати рішення. Візьмемо для прикладу ліки - чи слід давати ліки Х чи ліки Y? Ситуації, про які я маю на увазі, часто є складними проблемами (в сенсі Cynefin), коли дійсно добре, щоб хтось дуже уважно звертав увагу і використовував багато досвіду, а результат дійсно має значення.

Існує попит у медичних інформатиків написати системи підтримки прийняття рішень щодо подібної проблеми в медицині (і, мабуть, для такого ж типу в інших сферах). Вони роблять все можливе, але завжди очікується, що експерт людини завжди буде розглядати пропозицію системи лише як ще одну думку при прийнятті рішення. У багатьох випадках було б безвідповідально обіцяти що-небудь інше, враховуючи стан знань та доступні для розробників ресурси. Типовим прикладом може бути використання комп’ютерного зору в радіоміці: пацієнт отримує КТ і ШІ повинен обробити зображення і вирішити, чи є у пацієнта пухлина.

Звичайно, ШІ не є ідеальним. Навіть якщо вимірювати по відношенню до золотого стандарту, він ніколи не досягає 100% точності. І тоді є всі випадки, коли вона працює добре проти метрики власних цілей, але проблема була настільки складною, що метрика мети не сприймає її добре - я не можу привести приклад у контексті КТ, але я думаю ми бачимо це навіть у SE, де алгоритми надають перевагу популярності в публікаціях, що є недосконалим проксі для фактичної коректності.

Ви, напевно, читали цей останній абзац і кивали разом: "Так, я дізнався, що в першому вступному курсі ML взяв участь". Вгадай що? Лікарі ніколи не приймали вступний курс МЛ. Вони рідко мають достатньо статистичної грамотності, щоб зрозуміти висновки статей, що з’являються в медичних журналах. Коли вони розмовляють зі своїм 27-м пацієнтом, 7 годин у 16-годинну зміну, голодні та емоційно виснажені, а КТ виглядає не так чітко, але комп'ютер каже, що "це не злоякісне утворення", вони не роблять займіть ще десять хвилин, щоб більше сконцентруватися на зображенні, або подивитися підручник, або порадитися з колегою. Вони просто йдуть із тим, що говорить комп’ютер, вдячні, що їхнє когнітивне навантаження ще не зростає. Таким чином вони перетворюються на те, щоб бути експертами, щоб бути людьми, які щось читають з екрану. Гірше, у деяких лікарнях адміністрація не лише довіряє комп’ютерам, але також з’ясувала, що вони є зручними відпустками. Таким чином, у лікаря погана ідея, яка суперечить виходу комп'ютера, їм стає важко діяти на цю думку та захищати себе, що вони вирішили перекрити думку ШІ.

AI - це потужні та корисні інструменти, але завжди знайдуться завдання, коли вони не зможуть замінити інструментаря.


Якщо ви шукаєте більше прикладів, суперечка щодо використання машинного навчання для прогнозування повторних ставок претендентів на заставу чи умовно-дострокове звільнення є хорошою. Я погоджуюся, що ми не повинні очікувати, що лікарі та судді матимуть рівні статистичної експертизи, необхідні для розуміння ШІ, крім їх медичної та юридичної експертизи. Дизайнери AI повинні усвідомлювати помилковість своїх алгоритмів і надавати чітке керівництво своїм користувачам. Можливо, скажіть лікареві, де слід шукати КТ, а не безпосередньо давати їм результат.
craq

4

Це лише є доповненням до інших відповідей, тому я не буду обговорювати можливість ШІ, що намагається охопити людство.

Але різний ризик вже є тут. Я б назвав це бездоганною технологією . Мене навчали науці і техніці, і ІМХО, AI сам по собі не має ні поняття добра, ні зла, ні свободи. Але вона будується і використовується людьми, і через це може бути залучена нераціональна поведінка.

Я б почав із прикладу реального життя, більше пов'язаного із загальними ІТ, ніж з ІІ. Я буду говорити про віруси та іншу шкідливість. Комп'ютери - це досить дурні машини, які добре обробляти дані. Тож більшість людей покладаються на них. Деякі (погані) люди розробляють шкідливі програми, які порушать правильну поведінку комп’ютерів. І всі ми знаємо, що вони можуть мати жахливий вплив на малі та середні організації, які недостатньо підготовлені до комп’ютерних втрат.

AI заснований на комп'ютері, тому він уразливий для атак типу комп’ютера. Ось мій приклад - автомобіль, керований AI. Технологія майже готова до роботи. Але уявіть, що від зловмисного програмного забезпечення автомобіль намагається напасти на інших людей на дорозі. Навіть не маючи прямого доступу до коду ШІ, його можуть атакувати бічні канали . Наприклад, він використовує камери для зчитування сигнальних знаків. Але через те, як реалізується машинне навчання, AI, як правило, не аналізує сцену так само, як це робить людина. Дослідники показали, що можна змінити знак таким чином, що нормальна людина все ще побачить початковий знак, а ШІ побачить інший. Уявіть тепер, що знак є знаком пріоритету дороги ...

Що я маю на увазі, що навіть якщо ШІ не має злих намірів, погані хлопці можуть спробувати змусити його поводитися погано. І чим важливіші дії будуть делеговані AI (медецин, машини, літаки, не кажучи про бомби), тим вище ризик. Сказав інакше, я не дуже боюся ШІ за себе, але за те, як його можуть використовувати люди.


3

Я думаю, що один з найбільш реальних (тобто пов'язаних з поточними, існуючими ІС) ризиками полягає в тому, що сліпо покладаються на непідконтрольні ШІ з двох причин.

1. Системи ШІ можуть погіршуватися

Фізична помилка в системах ШІ може почати давати дико неправильні результати в регіонах, в яких їх не перевіряли, оскільки фізична система починає надавати неправильні значення. Це іноді викуповується шляхом самотестування та надмірності, але все ж вимагає періодичного нагляду людини.

Інтелектуальні програми для самостійного навчання також мають слабке програмне забезпечення - їх вагові мережі або статистичні уявлення можуть наближатися до місцевих мінімумів, коли вони застрягли з одним неправильним результатом.

2. Системи ШІ є упередженими

Це, на щастя, часто обговорюється, але варто зазначити: класифікація вхідних систем AI часто є необ’єктивною, оскільки набір даних щодо тренінгу / тестування також був упередженим. Це призводить до того, що ШІ не визнають людей певної етнічної приналежності для більш очевидного прикладу. Однак є менш очевидні випадки, які можуть бути виявлені лише після якоїсь поганої аварії, наприклад, AI не розпізнає певні дані та випадково запустив вогонь на заводі, зламав обладнання або поранив людей.


Це хороша, сучасна відповідь. ШІ "чорної скриньки", таких як нейронні мережі, неможливо перевірити абсолютно, що робить їх менш ніж 100% передбачуваними - а в розширенні менш ніж 100% надійними. Ми ніколи не знаємо, коли AI розробить альтернативну стратегію даної проблеми, і як ця альтернативна стратегія вплине на нас, і це справді величезна проблема, якщо ми хочемо покластися на AI для важливих завдань, таких як керування автомобілями чи управління ресурсами.
laancelot

1

Якщо робот схожий на людський машинний інтерфейс, пристрій такий же, як автомобіль на дистанційному керуванні. Можна поговорити з оператором за джойстиком і домовитись про бажану поведінку. Роботи з дистанційним керуванням - це безпечні винаходи, оскільки їх дії можна простежити на людях, і їх мотивацію можна передбачити. Їх можна використовувати для покращення повсякденного життя, і в них смішно грати.

Навпаки, деякі роботи не керуються джойстиками, але працюють із внутрішнім генератором кісток. Іграшка з кубиками відома своєю соціальною роллю в азартних іграх, але вона також має містичне значення. Зазвичай випадковий генератор сильно пов'язаний з хаотичною поведінкою, яка контролюється темними силами поза впливом людини. Електронна кістка, вбудована в робота і вдосконалена алгоритмом навчання, є протилежністю людського машинного інтерфейсу, але це потенційний винищувач проблем, тому що випадково керований робот гратиме в ігри з людьми, яких не можна передбачити. Неможливо передбачити наступну кількість кісток, тому робот також буде вести себе різко.

Зв’язок між випадковими контрольованими іграми та негативним соціальним впливом був пояснений у наступному реченні.

цитата: «У багатьох традиційних незахідних суспільствах азартні гравці можуть молитися до богів за успіх і пояснювати перемоги та програші з точки зору божественної волі. "Binde, Per. "Азартні ігри та релігія: Історія злагоди та конфлікту". Журнал випусків азартних ігор 20 (2007): 145-165.


1

Наразі люди існують в еколого-економічній ніші «речі, яка думає».

ШІ - це теж річ, яка думає, тому вона буде вторгнутись у нашу еколого-економічну нішу. Як в екології, так і в економіці, мати ще щось, що займає вашу нішу, не є великим планом для подальшого виживання.

Наскільки саме виживаність людини порушена цим, буде досить хаотично. Існує купа правдоподібних способів, що AI можуть загрожувати виживанню людини як виду, або навіть як домінуючої життєвої форми.


Припустимо, існує сильний ШІ без «супер етики», який дешевший у виробництві, ніж людина (включаючи виготовлення «тіла» чи способу маніпулювання світом), і розумніший чи розумніший за людину.

Це випадок, коли ми починаємо конкурувати з цим ШІ за ресурси. Це станеться на мікроекономічних масштабах (чи наймаємо людину, чи купуємо / будуємо / орендуємо / наймаємо ШІ для вирішення цієї проблеми?). Залежно від швидкості, з якою ІС стають дешевими та / або розумнішими за людей, це може статися повільно (можливо, галузь за один раз) або надзвичайно швидко.

У капіталістичній конкуренції ті, хто не переходить на більш дешеві ШІ, закінчуються поза конкуренцією.

Тепер, у короткотерміновій перспективі, якщо переваги ШІ лише незначні, висока вартість навчання людей за 20 років, перш ніж вони стають продуктивними, може зробити цей процес повільнішим. У цьому випадку, можливо, варто заплатити докторові вище заробітної плати, щоб діагностувати хворобу замість ШІ, але, мабуть, не варто виплачувати їхні студентські позики. Тож нові Лікарі людини швидко перестануть навчатися, а існуючі Лікарі збідняться. Тоді понад 20-30 років ШІ повністю замінить лікарів з діагностичною метою.

Якщо переваги ШІ великі, то це було б швидко. Лікарям навіть не варто було б платити заробітну плату на рівні бідності, щоб робити діагностику людини. Ви можете бачити щось подібне, що відбувається з м'язовим землеробством, коли землеробство на основі бензину взяло на себе.

Під час минулих промислових революцій той факт, що люди здатні думати, означає, що ви могли б замінити надлишки людських робітників на інші дії; виробничі лінії, робочі місця з обслуговування послуг, комп’ютерне програмування тощо. Але в цій моделі AI дешевше навчатись і будувати та настільки ж розумний чи розумніший, ніж люди на цій роботі.

Як свідчить арабська весна, спричинена етанолом, культури та посіви можуть використовуватися для палива як машин, так і людей. Коли машини будуть більш ефективними з точки зору перетворення урожаю на корисну роботу, ви почнете бачити, як ціна на їжу зростає. Зазвичай це призводить до заворушень, оскільки люди дійсно не люблять голодувати до смерті і готові ризикувати власним життям, щоб скинути уряд, щоб запобігти цьому.

Ви можете зневажати людей, надаючи субсидовану їжу тощо. Поки це не є економічно калічним (тобто, якщо досить дорого, це може призвести до того, що ви переможете в інших місцях, які цього не роблять), це просто політично нестабільно.

Як альтернатива, в короткий термін каста власності, яка отримує прибуток від все більш ефективної економіки, що управляється ІІ, може заплатити за поліцію чи військову касту, щоб придушити ці заворушення. Це вимагає, щоб поліцейські / військові касти були нижчим до середнього класу за рівнем життя, щоб забезпечити постійну лояльність - ви не хочете, щоб вони приєднувалися до бунтівників.

Отож, один із центрів прибутку, до якого можна поставити AI, - це військова та поліцейська діяльність на базі ШІ. Безпілотники, які доставляють летальні та не летальні боєприпаси на основі обробки візуальних та інших каналів даних, можуть зменшити кількість поліції / військових середнього класу, необхідних для зменшення заворушень, пов'язаних з ціною на продукти харчування, або інших нестабільності. Як ми вже припускали, що у ШІ можуть бути органи та тренування дешевше, ніж біологічні люди, це також може збільшити кількість сили, яку можна розгорнути за витрачений долар.

На даний момент ми говоримо про поліцію та військових, котрі в основному працюють на ШІ, які використовуються для запобігання повалення голодуючих людей від повалення економіки, здійснюваної ШІ, та вилучення засобів виробництва з більш ефективного використання, яке воно зараз застосовує.

Жорстокі люди, які "володіють" системою на вершині, приймають місцеві раціональні рішення для оптимізації свого багатства та могутності. Вони можуть або не можуть зберігатися довго; до тих пір, поки вони витрачають відносно невелику кількість ресурсів і не псують економіку, що управляє ШІ, не буде великого тиску на вибір, щоб позбутися від них. З іншого боку, оскільки вони не вносять нічого в цінність, вони позиціонують "на вершині" політично нестабільно.

Цей процес передбачав "сильний" загальний ШІ. Більш вузькі ШІ можуть витягнути це на частини. Наприклад, дешевий ефективний комп’ютер для діагностики може звести більшість лікарів у бідність на дивно короткий проміжок часу. Самостійне керування автомобілями могло поглинути 5% -10% економії. Інформаційні технології вже поглинають сектор роздрібної торгівлі зі скромним AI.

Кажуть, що кожен технологічний прогрес призводить до більшої та кращої роботи для людини. І це було вірно протягом останніх 300+ років.

Але до 1900 р. Також було правдою, що кожен технічний прогрес призводив до нових та кращих робочих місць для коней. Потім прибули ДВС і автомобіль, і зараз працюючих коней набагато менше; решта коней, в основному, еквівалент особистих слуг людини: тримається за новизну "вау, круто, коня" та весело їздити та контролювати величезну тварину.


1

На додаток до багатьох наданих відповідей, я б порушив питання змагальних прикладів в області моделей зображень.

Приклади змагань - зображення, обурені спеціально розробленим шумом, який часто непомітний для людського спостерігача, але сильно змінює передбачення моделі.

Приклади включають:


0

ШІ, який використовується для вирішення реальної світової проблеми, може становити загрозу для людства і не вимагає точно розуму, це також вимагає ступеня людської дурості.

На відміну від людей, ШІ знайшов би найбільш логічну відповідь без обмеження емоцій, етики чи навіть жадібності… Тільки логіка. Запитайте у цього ШІ, як вирішити проблему, яку створили люди (наприклад, Зміна клімату), і її рішенням може бути усунення всієї людської раси для захисту планети. Очевидно, що це вимагатиме надання ШІ можливості діяти за своїм результатом, який підводить мене до моєї попередньої точки зору, людської дурості.


0

Штучний інтелект може нашкодити нам будь-яким із способів природного інтелекту (людини). Відмінність між природним та штучним інтелектом зникне, коли людина почне посилювати себе більш інтенсивно. Інтелект більше не може характеризувати особистість і стане безмежним володінням. Шкоди буде завдано стільки, скільки люди можуть зазнати за збереження своєї еволюціонуючої самоідентичності.


0

Мало хто розуміє, що нашу глобальну економіку слід вважати AI: - Грошові операції - це сигнали через нейронну мережу. Вузлами в нейронній мережі будуть різні корпорації або приватні особи, які платять або отримують гроші. - Це техногенне, тому кваліфікується як штучне

Ця нейронна мережа є кращою у своєму завданні, ніж люди: Капіталізм завжди перемагає економіку, яку планує людина (планова економія).

Чи небезпечна ця нервова сітка? Можливо, це відрізняється, якщо ви генеральний директор, який заробляє велику порівняно з рибалкою в річці, забрудненій відходами підприємств.

Як цей ШІ став небезпечним? Ви можете відповісти на це через жадібність людини. Наше творіння відображає нас самих. Іншими словами: ми не навчали свою нервову мережу добре вести себе. Замість того, щоб навчати нейронну мережу для поліпшення якості життя для всіх людей, ми навчили її робити багатішими фоки.

Чи легко було б навчити цей ШІ вже не небезпечний? Можливо, ні, можливо, якийсь ШІ просто більший за життя. Це просто виживання найкращих.

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.