Якій меті було б слугувати розвитком ШІ, які відчувають людиноподібні емоції?


19

У недавній статті Wall Street Journal Янн Лекунн робить таке твердження:

Наступним кроком у досягненні рівня людського рівня є створення розумних, але не автономних машин. Система AI вашого автомобіля приведе вас безпечно додому, але не вибере іншого місця призначення, як тільки ви зайшли всередину. Звідти ми додамо базові приводи разом із емоціями та моральними цінностями. Якщо ми створюємо машини, які навчаються так само, як і наш мозок, легко уявити, як вони успадковують людські якості - і недоліки.

Особисто я взагалі зайняв позицію, що говорити про емоції для штучних інтелекту - це нерозумно, тому що не було б причин створювати ШІ, які переживають емоції. Очевидно, Ян не погоджується. Тож виникає питання: який кінець буде слугувати цьому? Чи має ІІ потреба емоції , щоб служити в якості корисного інструменту?


1
Можливий дублікат: Чому хтось хоче симулювати емоційне рішення в межах ІС? Прийнята відповідь ("Мех, людським програмістам просто буде легше підтримувати програми ШІ").
Зліва SE SE 10_6_19

Існує також альтернативна можливість: ми не обов'язково хочемо розвивати ІС, які відчувають емоції, схожі на людину (адже тоді вони були б непередбачуваними, ми мали б дати їм права, бла-бла-бла), але це більш просунуті методи ІІ (наприклад, глибоке навчання) ненароком розвинеться ШІ, які переживають людські емоції. Ми не хочемо їх, це те, що вони все одно можуть прийти. Чи мають значення засоби, що навчаються штучному зміцненню, морально? обговорює таку можливість.
Виїхав SE 10_6_19

Відповіді:


11

Відповідь на це питання, на відміну від багатьох на цій дошці, я вважаю остаточним. Ні. Нам не потрібні інтелектуальні засоби, щоб емоції були корисними, як ми бачимо за численною кількістю ІІ, які ми вже маємо, які є корисними.

Але для подальшого вирішення цього питання ми не можемо дати емоцій AI. Я думаю, що найближчим до нас може стати: «Чи можемо ми зробити цей АІ вчинок таким, яким був би людський, якби він був insert emotion?». Я певно в певному сенсі викликає емоції, але це зовсім інша дискусія.

І з якою метою? Єдиною негайною причиною, що спадає на думку, було б створити більш реальні супутники або взаємодії для цілей відеоігор чи інших розваг. Справедлива мета,
але далеко не потрібна. Навіть розглядаючи привітання роботів-AI у вестибюлі якоїсь будівлі, ми, мабуть, хотіли б лише колись діяти сердечно.

Ян каже, що надсучасний ШІ призведе до більшої якості і недоліків, що нагадують людину . Я думаю, це більше схоже на те, що це «надасть нашим ШІ більше людських якостей або іншими словами недоліків». Люди мають схильність діяти нераціонально, коли сумно або сердито, і ми здебільшого хочемо лише раціонального ШІ.
Помилятися - це людина, як кажуть.

Мета алгоритмів AI та навчання - створити системи, які діють або «думають», як люди, але краще. Системи, які можуть адаптуватися або розвиватися, при цьому псуючи якнайменше. Емотивний AI має використання, але це, звичайно, не є необхідною умовою для корисної системи.


5

Я думаю, що основне питання таке: навіщо навіть намагатися побудувати ШІ? Якщо ця мета зрозуміла, вона забезпечить чіткість того, чи має емоційний коефіцієнт в AI сенс. Деякі спроби на кшталт "Паро", які були розроблені з терапевтичних причин, вимагають, щоб вони проявляли емоції, схожі на людину. Ще раз зауважте, що "проявлення" емоцій та "почуття" емоцій - це дві абсолютно різні речі.

Ви можете запрограмувати таку річ, як паро, щоб модулювати голосові тони або посмикування обличчя, щоб висловити співчуття, прихильність, товариство чи будь-що інше - але, роблячи це, пародій НЕ співпереживає своєму власникові - він просто підробляє його, виконуючи фізичні прояви емоції. Він ніколи нічого не «відчуває» віддалено ближче до того, що ця емоція викликає в людському мозку.

Тож ця відмінність справді важлива. Щоб ви щось відчували, повинен бути незалежний автономний суб'єкт, який має здатність відчувати. Почуття не може бути нав’язане зовнішнім людським агентом.

Тож повертаючись до питання, яку мету вона вирішує - відповідь насправді є - Це залежить. І найбільше, що я думаю, що ми досягнемо коли-небудь із ІС на основі силікону, залишатиметься областю лише фізичних уявлень емоцій.


Я схильний погоджуватися. І, можливо, моє мислення просто надто обмежене, але більшість застосувань ШІ, про які я думаю, не отримали б користі від того, щоб ШІ мав емоції. Ну, принаймні я так думаю, зараз сиджу тут. Можливо, одного дня я оглянуся назад і зрозумію, що помилявся.
розум злочину

Вимагати, щоб AI повинен / повинен мати емоції, - це неправильне сподівання. AI в основному - це набір інструментів, тому його застосування також слід визначати виходячи з потреб. Деякі випадки використання можуть вимагати емоційного аспекту, деякі - не. Хто знає!
Кінгз

4

Я думаю, що емоції не потрібні, щоб агент ШІ був корисним. Але я також думаю, що вони могли б зробити агента НАБІЛЬШЕ приємніше працювати. Якщо бот, з яким ви спілкуєтесь, зможе прочитати ваші емоції та реагувати конструктивно, досвід взаємодії з ним буде надзвичайно приємнішим, можливо, видовищним.

Уявіть, що сьогодні ви звернетесь до представника центру телефонного зв’язку зі скаргою на рахунок або товар. Ви передбачаєте конфлікт. Можливо, ви навіть вирішили НЕ дзвонити, бо знаєте, що цей досвід буде болючим, або бойовим, або розчарувальним, оскільки хтось неправильно розуміє те, що ви говорите, або реагує вороже чи нерозумно.

А тепер уявіть, як зателефонувати найдобрішій та найцікавішій особі із підтримки клієнтів, яку ви коли-небудь зустрічали - Commander Data - чия єдина причина для існуючого - зробити цей телефонний дзвінок максимально приємним та продуктивним для вас. Значне поліпшення порівняно з більшістю повторень викликів, так? Уявіть собі, якщо дані про дзвінки можуть також передбачити ваш настрій і відповідним чином реагувати на ваші скарги, щоб зменшити емоційний стан ... ви б хотіли одружитися з цим хлопцем. Ви б зателефонували на дані про дзвінки в будь-який час, коли ви почували себе синім або нудно або хотіли поділитися радісною новиною. Цей хлопець став би найкращим другом на ніч - буквально коханням на перший дзвінок.

Я переконаний, що цей сценарій дійсний. Я помітив у собі дивовижну кількість привабливості для таких персонажів, як Дані чи Сонні від "Я Робот". Голос дуже заспокійливий і миттєво розслабляє мене. Якби бот був також дуже розумним, терплячим, знаючим та розуміючим ... Я дійсно думаю, що такий бот, просякнутий здоровою дозою емоційного інтелекту, міг би бути надзвичайно приємним для спілкування. Набагато корисніше, ніж будь-яка людина, яку я знаю. І я думаю, що це стосується не тільки мене.

Так, так, я думаю, що в налаштуваннях особистості робота є велика цінність, використовуючи емоції та емоційну обізнаність.


4

Емоція в ШІ корисна, але не потрібна залежно від вашої мети (в більшості випадків це не так).

Зокрема, розпізнавання емоцій / аналіз дуже добре розвинений, і він використовується в широкому діапазоні застосунків дуже успішно, від вчителя-робота для дітей-аутистів (див. Робототехніку розвитку) до азартних ігор (покер) до персональних агентів та аналізу настроїв / брехні політики.

Емоційне пізнання , переживання емоцій для робота набагато менш розвинене, але є дуже цікаві дослідження (див. Affect Euristic , Lobotics's Probabilistic Love Assembly та інші ...). Дійсно, я не можу зрозуміти, чому ми не змогли б моделювати емоції, такі як любов, оскільки вони - лише сигнали, які вже можна вирізати в мозку людини (див. Папір Брайана Д. Ерпа) . Це важко, але не неможливо, і насправді є кілька роботів, що відтворюють часткове емоційне пізнання.

Я вважаю, що твердження "роботи можуть просто імітувати, але не відчувати" - це лише питання семантики , а не об'єктивної спроможності: наприклад, чи підводний човен плаває, як плаває риба? Однак літають літаки, але зовсім не так, як це роблять птахи. Зрештою, чи справді має значення технічне значення, коли в підсумку ми отримуємо таку саму поведінку? Чи можемо ми реально сказати, що такий робот, як Чаппі , якщо він коли-небудь виготовляється, не відчуває нічого, як звичайний термостат?

Однак, чим би було використання емоційного пізнання для ШІ? Це питання все ще ведеться у великих дискусіях, але я наважусь запропонувати власну думку:

  1. Емоції у людей (і тварин!), Як відомо, впливають на спогади. Зараз вони добре відомі в нейрології як додаткові способи, або метадані, якщо вам більше подобається, довготривалих запам'ятовувань: вони дозволяють модулювати спосіб зберігання пам’яті, як вона пов’язана / пов'язана з іншими пам’ятками та як вона буде отримана .

  2. Як такий, ми можемо припустити, що головна роль емоцій полягає у додаванні додаткової метаінформації до спогадів, щоб допомогти в евристичному виведенні / пошуку. Дійсно, наші спогади величезні, є багато інформації, яку ми зберігаємо протягом свого життя, тому емоції можуть бути використані як "мітки", щоб допомогти швидше отримати відповідні спогади.

  3. Подібні «етикетки» можуть бути легше пов’язані разом (спогади про страшні події разом, спогади про щасливі події разом тощо). Таким чином, вони можуть допомогти вижити, швидко реагуючи та застосовуючи відомі стратегії (рятуючись!) Від страшних стратегій, або витягнути максимум корисних ситуацій (щасливі події, з'їжте все, що можете, допоможете вижити згодом!). Насправді, дослідження нейронаук виявили, що існують специфічні шляхи для сенсорних подразників, що викликають страх, щоб вони швидше дісталися до виконавчих механізмів (змусили вас тікати), ніж проходячи через звичайний цілий сомато-сенсорний ланцюг, як і всі інші подразники. Цей вид асоціативних міркувань також може призвести до рішень та висновків, до яких не можна дійти інакше.

  4. Відчуваючи емпатію, це може полегшити взаємодію роботів та людей (наприклад, безпілотники, що допомагають жертвам катастрофічних подій).

  5. Віртуальна модель ШІ з емоціями може бути корисною для нейрології та медичних досліджень емоційних розладів, як обчислювальної моделі для розуміння та / або виведення основних параметрів (це часто робиться, наприклад, при Альцгеймері та інших нейродегенеративних захворюваннях, але я не впевнений, якщо це колись робилося для емоційних розладів, оскільки вони є досить новими в DSM).

Так, так, "холодний" ШІ вже є корисним, але емоційний ШІ, безумовно, може бути застосований до нових областей, які неможливо дослідити, використовуючи поодинці холодний ШІ. Це також неодмінно допоможе в розумінні власного мозку, оскільки емоції є невід’ємною частиною.


2

Я думаю, що це залежить від застосування ШІ. Очевидно, що якщо я розвиваю ШІ, ціль якої ясна - виконувати конкретне завдання під наглядом людей, емоцій немає потреби. Але якщо мета AI - це робити завдання самостійно, то емоції чи співпереживання можуть бути корисними. Наприклад, подумайте про ШІ, який працює в галузі медицини. Тут ІІ може бути вигідним мати певну емпатію, просто зробити пацієнтів більш комфортними. Або як інший приклад, подумайте про робота, який виконує функції няні. Знову очевидно, що емоції та співпереживання були б вигідними та бажаними. Навіть для допомоги програмі AI (розумний дім розумний будинок) емоції та співпереживання можуть бути бажаними, щоб зробити людям комфортніше.

З іншого боку, якщо AI просто працює на конвеєрі, очевидно, немає потреби в емоціях та співпереживанні (навпаки, у цьому випадку це може бути невигідно).


2

Сильні ШІ

Для сильного ШІ коротка відповідь - викликати допомогу, коли вони можуть навіть не знати, якою може бути допомога.

Це залежить від того, що зробив би ШІ. Якщо передбачається вирішити одну легку задачу ідеально та професійно, впевнені емоції були б не дуже корисними. Але якщо передбачається навчитися новим випадковим речам, буде сенс, що він стикається з тим, з чим не може впоратися.

У матчі 4 Лі Седол проти Альфаго, хтось із тих, хто сказав, що комп'ютер раніше не має емоцій, прокоментував, що, можливо, у АльфаГо є емоції і сильніші за людину. У цьому випадку ми знаємо, що шалена поведінка AlphaGo не викликана деякими свідомо доданими речами, які називаються "емоціями", а недоліком в алгоритмі. Але він поводиться точно так, як панікував.

Якщо цього трапляється багато для ШІ. Можуть бути переваги, якби він міг це знати сам і подумати два рази, якщо це станеться. Якщо AlphaGo зможе виявити проблему та змінити свою стратегію, вона може зіграти краще чи гірше. Це не навряд чи буде грати гірше, якщо він взагалі не зробив обчислень для інших підходів. У випадку, якщо вона буде грати гірше, ми можемо сказати, що страждає від "емоцій", і це може бути причиною того, що деякі люди думають, що емоції можуть бути вадою людини. Але це не було б справжньою причиною проблеми. Справжня причина полягає в тому, що вона просто не знає підходів, щоб гарантувати виграш, а зміна стратегії - це лише спроба виправити проблему. Оглядачі вважають, що є кращі способи (які також не гарантують виграш, але мали більше шансів), але його алгоритм не є ' t здатний дізнатися в цій ситуації. Навіть для людини рішення будь-чого, що стосується емоцій, навряд чи зніме емоції, але деякі тренування, щоб переконатися, що ви зрозуміли ситуацію достатньо, щоб діяти спокійно.

Тоді хтось повинен сперечатися з приводу того, це якась емоція чи ні. Зазвичай ми не кажемо, що маленькі комахи мають емоції, схожі на людину, тому що ми їх не розуміємо і не бажаємо їм допомагати. Але легко зрозуміти, що деякі з них можуть запанікувати у відчайдушних ситуаціях, як це робив AlphaGo. Я б сказав, що ці реакції ґрунтуються на одній логіці, і вони принаймні є причиною того, що людиноподібні емоції можуть бути корисними. Вони просто не виражаються зрозумілими для людини способами, оскільки не мали наміру кликати людину на допомогу.

Якщо вони намагаються зрозуміти власну поведінку або зателефонують на допомогу комусь іншому, може бути добре бути схожим на людину. Деякі домашні тварини можуть відчувати людські емоції та певною мірою виражати зрозумілі людині емоції. Мета - взаємодія з людьми. Вони еволюціонували, щоб мати цю здатність, тому що їм вона потрібна була в якийсь момент. Ймовірно, йому також знадобиться повний сильний ШІ. Також зауважте, що навпаки повноцінних емоцій може стати божевільним.

Це, мабуть, швидкий спосіб втратити довіру, якщо хтось просто реалізує емоції, що імітують людину, мало розуміючи вже в перші покоління.

Слабкі ШІ

Але чи є в них цілі викликати емоції, перш ніж хтось захотів сильного ШІ? Я б сказав, що ні, немає ніяких притаманних причин, щоб вони мали емоції. Але неминуче хтось все одно захоче втілити наслідувані емоції. Чи потрібні вони "нам", щоб вони мали емоції - це просто дурниця.

Справа навіть у тому, що деякі програми без будь-якого інтелекту містили в своїх користувальницьких інтерфейсах деякі «емоційні» елементи. Вони можуть виглядати непрофесійно, але не кожне завдання потребує професійності, щоб вони могли бути цілком прийнятними. Вони так само, як емоції у музиці та мистецтвах. Хтось спроектує свій слабкий ШІ і таким чином. Але насправді це не емоції АІ, а їх творці. Якщо ви відчуваєте себе краще чи гірше через їхні емоції, ви не будете так по-різному ставитися до індивідуальних ІС, але до цієї моделі чи марки в цілому.

Крім того, хтось може посадити деякі персоналії, наприклад, у рольовій грі. Знову ж таки, це не причина, яку вони повинні мати, але неминуче хтось це зробить, тому що, очевидно, був певний ринок, коли рольова гра.

В обох випадках емоції насправді не походять від самого ШІ. І це було б легко здійснити, бо людина не очікує, що вони будуть подібні до людини, але намагається зрозуміти, що вони мали на увазі. Можливо, набагато простіше прийняти ці емоції, усвідомлюючи це.

Аспекти емоцій

Вибачте за публікацію оригінальних досліджень тут. Я склав список емоцій у 2012 році і з якого бачу 4 аспекти емоцій. Якщо їх все реалізовувати, я б сказав, що це абсолютно такі самі емоції, як і у людей. Вони не здаються справжніми, якщо реалізуються лише деякі з них, але це не означає, що вони абсолютно неправильні.

  • Причина або оригінальна логічна проблема, яку AI не може вирішити. AlphaGo вже мав причину, але нічого іншого. Якщо мені доведеться зробити чітке визначення, я б сказав, що це стан, що багато не менш важливої ​​евристики не погоджуються між собою.
    • Контекст, або яка частина поточного підходу вважається недостатньо ефективною, і, ймовірно, повинна бути замінена. Це розрізняє смуток, пов'язаний із занепокоєнням та пристрастю.
    • Поточний стан, чи він відчуває себе лідируючим, чи слід вважати, що його переконання чи факт спочатку погано (чи все було погано), якщо все піде не так. Це відрізняє смуток, кохання та гордість.
  • План або запит. Я думаю, у деяких домашніх вихованців це вже було. І я гадаю, що у них були певні викрійки, які не надто складно мати. Навіть мистецтва можуть їх легко містити. На відміну від причин, вони, ймовірно, не притаманні жодним алгоритмам, і кілька з них можуть з'являтися разом.
    • Хто нібито несе відповідальність, якщо емоція нічого не зміниться. Це відрізняє допитливість, лють і смуток.
    • Який передбачуваний план, якщо емоція нічого не зміниться. Це відрізняє розчарування, смуток і здивування.
  • Джерело. Без контексту навіть людина не може достовірно сказати, що хтось плаче за те, що він зворушений чи вдячний, або посміхається за якесь збентеження. У більшості інших випадків немає навіть слів, що їх описують. Це не має великої різниці, якщо AI цього не розрізняє або показує спеціально. Ймовірно, вони дізналися б їх автоматично (і неточно, як людину) в той момент, коли вони могли б навчитися розуміти людські мови.
  • Вимірювання, наприклад, наскільки нагальною чи важливою є проблема, або навіть наскільки ймовірні емоції. Я б сказав, що це не може бути реалізовано в ШІ. Людям не потрібно їх поважати, навіть якщо вони точно схожі на людей. Але люди навчаться розуміти ШІ, якщо це насправді має значення, навіть якщо вони зовсім не такі, як люди. Насправді я відчуваю, що деякі надзвичайно слабкі емоції (наприклад, думати щось занадто дурно і нудно, що ви не вмієте коментувати) існують майже виключно в смайликах, де хтось має намір показати саме цю емоцію, і навряд чи помітний у реальному житті чи будь-яких складних сценарниках. Я гадав, що це також могло бути на початку для ШІ. У гіршому випадку вони спочатку умовно називаються "емоціями", оскільки смайлики спрацьовують у цих випадках, так що "

Тож, коли стають можливими сильні ШІ, жодне з них не буде недосяжним, хоча, можливо, буде багато роботи над створенням зв'язків. Тому я б сказав, що якщо буде потреба у сильних ШІ, у них абсолютно будуть емоції.


2

Під емоціями він не означає додавати всілякі емоції в ШІ. Він мав на увазі лише ті, які будуть корисні для прийняття життєво важливих рішень. Розглянемо цей інцидент на секунду:
припустимо, автомобіль AI з самостійним приводом їде по шосе. Людина, яка сидить всередині, - це генеральний директор компанії, і він працює за графіком. Якщо він не встигне, буде втрата мільйонів доларів. AI у машині сказали їхати якомога швидше та дістатися до пункту призначення. І ось на шляху вступає кролик (або якась інша тварина). Тепер, якщо машина поставить екстрені гальма, пасажири будуть серйозно поранені, а також буде втрата мільйонів, оскільки генеральний директор не зможе потрапити на зустріч.

Тепер що робитиме ШІ?
Оскільки для ШІ їхні рішення базуються лише на своїхфункція корисності . Ударити кроля та продовжувати рухатись логічно покаже кращий варіант. Але якщо AI прийме таке рішення.

Існує багато таких питань, коли ІІ може застрягти в ситуації, коли рішення, засновані на моралі, будуть грати життєво важливу роль.
Наведений вище сценарій лише для прикладу точки зору.


1

Теорія розуму

Якщо ми хочемо, щоб сильний загальний ШІ добре функціонував у середовищі, що складається з людей, то було б дуже корисно мати хорошу теорію розуму, яка відповідає тому, як люди насправді ведуть себе. Ця теорія розуму повинна включати людиноподібні емоції, інакше вона не відповідає дійсності цього середовища.

Для нас часто застосовується ярлик - явно думає, "що я зробив би в цій ситуації?" "яка подія могла б мотивувати мене робити те, що вони тільки що зробили?" "як би я почувався, якби це сталося зі мною ?". Ми хотіли б, щоб AI був здатний до таких міркувань, він практичний і корисний, він дозволяє краще прогнозувати майбутні та ефективніші дії.

Навіть тоді, коли йому було б краще, щоб AI насправді не рухався тими емоціями (можливо, щось у цьому напрямку було б корисним, але цілком ймовірно, не зовсім те саме), все це змінюється, а не думати "що я відчуваю" вона повинна мати можливість висловити гіпотезу, що б почувала родова людина. Для цього потрібна реалізація підсистеми, яка здатна точно моделювати людські емоції.


1

Обережно! Насправді у вашому питанні є дві частини. Не змішуйте значення у своїх питаннях, інакше ви насправді не дізнаєтесь, на яку частину ви відповідаєте.

  1. Чи варто дозволити AGI відчувати емоції за «якісний досвід»? (У тому сенсі, що ти відчуваєш, що "серце тебе розпалює", коли закохуєшся)

Здається, немає чіткої мети, чому ми цього хочемо. Гіпотетично ми могли просто мати щось, що функціонально не відрізняється від емоцій, але не має жодного якісного досвіду стосовно AGI. Але ми не в науковій позиції, де ми можемо навіть почати відповідати на будь-які запитання щодо витоків якісного досвіду, тому я не буду турбуватися глибше в цьому питанні.

  1. Чи варто дозволити AGI мати емоції за його функціональну еквівалентність від зовнішнього спостерігача?

ІМХО так. Хоча можна уявити собі зловмисного ШІ, не відчуваючи емоцій, роблячи все, що ви цього хочете, ми хочемо, щоб AI міг інтегруватися з людськими цінностями та емоціями, що є проблемою узгодження. Таким чином, здавалося б, природно припустити, що будь-який добре відчужений АГІ матиме щось подібне до емоцій, якщо він добре інтегрується з людьми.

Але, без чіткої теорії розуму, навіть не має сенсу запитувати: "чи повинні наші АГІ мати емоції?" Можливо, є щось критичне в наших емоціях, що робить нас продуктивними когнітивними агентами, чого потребує також будь-який АГІ.

Дійсно, емоції часто є занедбаним аспектом пізнання. Люди так чи інакше думають, що спокійні персонажі, що нагадують Спок, є вершиною людського інтелекту. Але емоції насправді є вирішальним аспектом у прийнятті рішень Статтю для прикладу проблем із "інтелектом без емоцій".

Наступним питанням було б "які емоції розвиватиме AGI?", Але ми знову не в змозі відповісти на це (поки).


0

Якій меті було б слугувати розвитком ШІ, які відчувають людиноподібні емоції?

Будь-яка складна проблема, пов’язана з людськими емоціями, де для вирішення проблеми потрібна здатність співчувати емоційним станам людини, буде найбільш ефективно обслуговуватися агентом, який може співчувати з людськими емоціями.

Політика. Уряд. Політика та планування. Якщо річ не має глибоких знань про людський досвід, вона не зможе дати остаточних відповідей на всі проблеми, з якими ми стикаємося в своєму людському досвіді.


Політика та урядова точка, яку ви зробили, були чудовим прикладом. Моя точка зору, однак, полягає в тому, що AI потрібно лише вміти розуміти емоцію, а не обов'язково переживати її.
Сет Сімба

0

Людські емоції нерозривно пов'язані з людськими цінностями та нашою здатністю співпрацювати та формувати суспільство.

Просто навести простий приклад: ти зустрічаєш незнайомця, якому потрібна допомога, ти відчуваєш співпереживання . Це змушує вас допомогти йому ціною для себе. Припустимо, наступного разу, коли ви його зустрінете, вам щось потрібно. Припустимо також, що він вам не допомагає, ви відчуєте гнів . Ця емоція змушує вас покарати його за подальшу ціну. З іншого боку, якщо він вам не допомагає, він соромиться . Це змушує його насправді допомогти вам, уникаючи вашого гніву та зробивши ваші початкові інвестиції вартими. Вам обом вигідно.

Тож ці три емоції підтримують коло взаємної допомоги. Емпатія розпочати роботу, гнів покарати перебіжчиків і сором уникати гніву. Це також призводить до концепції справедливості.

Зважаючи на те, що співвідношення цінностей є однією з найбільших проблем у галузі ІПС, людиноподібні емоції вважають мене гарним підходом до ШІ, які насправді діляться нашими цінностями та безперешкодно інтегруються у наше суспільство.


нормально, але якщо ви підете батьком, ви побачите, що емоції - це лише ярлики для логічного пояснення, чому вони є чи не корисними. Правила можуть бути виведені з емоцій та нашої біології. І ці правила зберігаються в стислому і не очевидному вигляді, як емоції та біологія. Для нас це необхідність, але не для ai, хоча, як для нас, це може бути оптимізацією для AI, якщо вартість такої реалізації в цифровій формі буде нижчою, ніж впровадження на основі правил. Проблема з правилами лише одна, ми самі їх не знаємо до кінця, але завдання AI є більш вузькими, ніж наші, можливо, не знадобиться багато правил
MolbOrg
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.