Чи вразливий штучний інтелект до злому?
На хвилину переверніть своє запитання і подумайте:
Що б зробило AI меншим ризиком злому в порівнянні з будь-яким іншим типом програмного забезпечення?
Зрештою, програмне забезпечення - це програмне забезпечення, і завжди будуть проблеми та проблеми із безпекою. ШІ піддаються ризику всіх проблем, яким не загрожує програмне забезпечення, яке не належить до ІП, оскільки AI не надає йому якогось імунітету.
Що стосується фальсифікацій, пов'язаних зі ІІ, то АІ ризикує подати неправдиву інформацію. На відміну від більшості програм, функціональність AI визначається даними, які він споживає.
На прикладі реального світу, кілька років тому Microsoft створила AI-чат під назвою Tay. Люди Твіттера знадобилися менше 24 годин, щоб навчити його говорити "Ми збираємося будувати стіну, а Мексико збирається платити за це":
(Зображення взято із статті, присвяченої Verge нижче, я не претендую на це.)
І це лише верхівка айсберга.
Деякі статті про Тей:
А тепер уявіть, що це не бот-чат, уявіть, що це був важливий фрагмент ШІ з майбутнього, коли AI відповідає за такі речі, як не вбивство пасажирів автомобіля (тобто автомобіль, що керує авто), або не вбивство пацієнта на операційний стіл (тобто якесь обладнання для медичної допомоги).
Зрозуміло, можна сподіватися, що такі ШІ будуть краще захищені від таких загроз, але припустимо, що хтось знайшов спосіб подати таку масу неправдивої інформації, не помітивши (адже найкращі хакери не залишають сліду), що справді може означати різниця між життям і смертю.
Скориставшись прикладом автомобіля, що керує самостійно, уявіть, чи неправдиві дані можуть змусити машину подумати, що потрібно зробити аварійну зупинку під час руху на автостраді. Одним із застосувань для медичного ШІ є рішення про смерть або смерть у ЕР, уявіть, якби хакер міг нахилити ваги на користь неправильного рішення.
Як ми можемо це запобігти?
Зрештою, масштаб ризику залежить від того, наскільки надійні люди стають на ШІ. Наприклад, якби люди приймали судження про ІП і ніколи його не ставили під сумнів, вони відкривали б собі всілякі маніпуляції. Однак, якщо вони використовують аналіз ІІ як лише одну частину головоломки, було б легше помітити, коли ІП помиляється, будь то випадковими або зловмисними засобами.
Що стосується лікаря, який приймає рішення, не вірите лише ШІ, проводьте фізичні випробування і отримайте також думки людини. Якщо два лікарі не згодні з ШІ, викиньте діагноз ШІ.
Що стосується автомобіля, одна з можливостей - мати кілька зайвих систем, які по суті повинні "голосувати" про те, що робити. Якщо автомобіль мав кілька ІС на окремих системах, які повинні проголосувати за те, які дії потрібно вжити, хакеру доведеться вивезти більше ніж один ІС, щоб отримати контроль або викликати тупик. Важливо, що якщо AI працювали в різних системах, однакова експлуатація, що використовується на одній, не могла бути здійснена в іншій, що ще більше збільшило навантаження хакера.