Ні , з але . Ми можемо мати творче, але етичне вирішення проблем, якщо система має повну систему етики, але в іншому випадку творчість за замовчуванням буде небезпечною.
Можна класифікувати підходи до прийняття рішень щодо ІІ на два типи: інтерполятивні мислителі та екстраполятивні мислителі.
Інтерполятивні мислителі вчаться класифікувати та імітувати те, що вони навчаються, і не намагаються дати розумні результати за межами своєї навчальної сфери. Ви можете розглядати їх як інтерполяцію між прикладами навчання та користь від усіх математичних гарантій та положень як інших статистичних методів.
Екстраполятивні мислителі вчаться маніпулювати основними принципами, що дозволяє їм поєднувати ці принципи раніше непродуманими способами. Відповідним полем для інтуїції тут є чисельна оптимізація , з яких найпростішим і найвідомішим прикладом є лінійне програмування , а не статистичні поля, що породили машинне навчання. Ви можете розцінювати їх як екстраполяцію поза прикладами тренувань (дійсно, багато з них навіть не вимагають прикладів тренувань або використовують ці приклади, щоб зробити висновок про основні принципи).
Обіцянка екстраполятивних мислителів полягає в тому, що вони можуть придумати ці «бічні» рішення набагато швидше, ніж люди могли б. Проблема цих екстраполятивних мислителів полягає в тому, що вони використовують лише розмовні принципи, а не якісь невисловлені, які можуть здатися занадто очевидними для згадки.
Атрибутом вирішення проблем оптимізації є те, що вектор функції в деякому роді часто є "крайнім". У лінійному програмуванні принаймні одна вершина можливого простору рішення буде оптимальною, і тому прості методи рішення знаходять оптимальну вершину (що майже неможливо за версією вершини).
В іншому прикладі рішення з мінімальним паливом для переміщення космічного корабля з однієї позиції на іншу називається " удар-удар ", де ви прискорюєте судно якнайшвидше на початку та в кінці траєкторії, виходячи на узбережжя з максимальною швидкістю між .
У той час як доброчесність, коли система правильно зрозуміла (ударний вибух є оптимальним для багатьох випадків), це катастрофічно, коли система неправильно зрозуміла. Мій улюблений приклад - проблема дієти Данцига (обговорення починається на сторінці 5 pdf), де він намагається оптимізувати своє харчування, використовуючи математику. За його першого обмеження, він повинен пити 500 галонів оцту на день. Під його другим 200 кубиків бульйону. Під його третім - два кілограми висівок. Міркування, які роблять ці очевидно погані ідеї, не вкладаються в систему, і тому система невинно їх пропонує.
Якщо ви зможете повністю кодувати знання та цінності, які людина використовує, щоб оцінити ці плани в ШІ, то екстраполятивні системи такі ж безпечні, як і ця людина. Вони зможуть розглянути та відхилити невірні плани екстремальних планів та залишити вас правильним видом екстремальних планів.
Але якщо ви не можете, то має сенс не будувати екстраполятивного органу, що приймає рішення, а натомість будувати інтерполятивний. Тобто, замість того, щоб запитувати себе "як мені найкраще досягти мети X"? воно запитує себе "що б людина робила в цій ситуації?". Останнє може бути набагато гірше при здійсненні мети X, але у неї набагато менше ризику хвоста для пожертвування інших цілей.