Я відповім на це запитання у кількох частинах:
Чому системи AGI повинні мати здоровий глузд?
Люди в дикій природі і спілкуються, використовуючи здоровий глузд більше, ніж це роблять із суворою логікою, ви можете це побачити, зазначивши, що легше апелювати до чиєїсь емоції, ніж до логіки. Тож будь-яка система, яка прагне повторити людське пізнання (як у AGI), також повинна повторювати цю тенденцію до використання здорового глузду.
Простіше кажучи, ми хотіли б, щоб наша система AGI могла розмовляти з нами на мові здорового глузду, просто тому, що це ми найкраще розуміємо (інакше ми б не зрозуміли наш дружній AGI, чи не так?). Теорія тупості та сувора логіка технічно можуть бути правильними, але не звертаються до нашого розуміння.
Чи не мета AGI - створити найбільш пізнавально просунуту систему? Чому "найдосконаліша" система AGI повинна мати справу з такими недосконалістю та неточністю, що є здоровим глуздом?
По-перше, може здатися, що логіка здорового глузду "нераціональна". Можливо, існує послідовний математичний спосіб моделювання здорового глузду таким чином, щоб усі тонкощі здорового глузду були представлені строго.
По-друге, раннє вивчення штучного інтелекту розпочалося з вивчення когнітивної науки, де дослідники намагалися повторити "алгоритми розуму", а точніше: рішучі процедури, які б тиражували людську думку. Тоді в такому ступені дослідження ШІ не для створення "найвищого когнітивного агента", а лише для тиражування людської думки / поведінки. Після того, як ми можемо повторити поведінку людини, ми можемо спробувати створити щось надлюдське, надавши йому більше обчислювальної сили, але це не гарантується.
Я досі не бачу, чому потрібен здоровий глузд в системах AGI. Хіба AGI не є найбільш інтелектуальною та потужною обчислювальною системою? Чому вона повинна дбати або відповідати межі людського розуміння, що вимагає здорового глузду?
Можливо, тоді у вас є трохи несогласне розуміння того, що тягне за собою AGI. AGI не означає необмежену обчислювальну потужність (фізично неможливу через фізичні обмеження в обчисленні, наприклад , обмеження Бремермана ) або необмежений інтелект (можливо, фізично неможливий через попереднє обмеження). Зазвичай це просто означає штучний "загальний інтелект", загальне значення широке і загальне.
Міркування щодо безмежних агентів більш детально вивчаються в таких галузях, як теоретична інформатика (я вважаю, теорія типів), теорія рішень і, можливо, навіть теорія множин, де ми можемо ставити питання щодо агентів з необмеженою обчислювальною потужністю. Можна сказати, що є питання, навіть система AGI з необмеженою потужністю не може відповісти через проблему зупинки , але лише якщо припущення в цих полях відображають структуру даного AGI, що може бути неправдою.
Для кращого розуміння того, що може спричинити AGI та його цілі, я можу порекомендувати дві книги: Штучний інтелект: Сама ідея Джона Хагеленда для більш прагматичного підходу (настільки прагматичного, як може бути AI-філософія, та про походження об'єктів Брайан Кантуел Сміт за більш філософсько схильний підхід.
Як осторонь, колекція дзен-коану: Ворота без воріт включає наступний уривок: (цитується та редагується з Вікіпедії )
Чернець запитав Чжаочжоу, китайського майстра дзен, "Є собака Будда-природа чи ні?" Чжаочжоу відповів: "Wú"
Wú (無) перекладається на "жоден", "невідповідний" або "нічого", що можна трактувати так, щоб уникнути відповіді "так" або "ні". Цей освічений індивід не прагне чітко відповісти на кожне питання, а просто відповісти таким чином, що має сенс. Насправді не важливо, як змочувати собаку природу Будди чи ні (що б не означало природа Будди), тому майстер за замовчуванням скасує питання, а не вирішує його.