Непередбачуваний інтелект. Що спільного між роботом-вбивцею і роботом-пилососом
Швидкість операцій та багатозадачність дадуть роботам перевагу в протистоянні з людьми. Важливо не пропустити момент, коли штучний інтелект вперше проявить волю, яка відрізняється від нашої.
Днями пилосос моєї подруги зробив господині приємний сюрприз. Без всіляких команд з її боку скачав якусь програму й отримав нову функцію, яку за інформацією виробника взагалі не повинен був підтримувати.
Коли говорять, що техніка, якою ми користуємося "вміє" щось робити, мають на увазі вдало втілений задум її розробників. Тільки в цьому випадку компанія, що випускає роботів-пилососів, навряд чи може бути зацікавлена в самостійному безкоштовному апгрейді вже проданих пристроїв.
Виробнику вигідне оновлення товарної лінійки. У нових моделей повинні зʼявлятися технічні можливості, недоступні для попередніх. Це стимулює збут. Отже, "розумний" пилосос діяв не в інтересах розробника, можна сказати, що він проявив незалежну ініціативу.
Банальна на перший погляд побутова історія нагадала про один вкрай цікавий інцидент, що промайнув у нещодавніх новинах. У Лівії військові дрони-квадрокоптери Kargu-2 виробництва турецької компанії STM вистежили та розстріляли війська, що відступали, фельдмаршала Халіфи Хафтара — однієї зі сторін у багаторічній громадянській війні в цій країні.
Це було б тривіальною військовою операцією, якби хтось із людей віддав відповідний наказ. Унікальність ситуації в тому, що дрони вирішили самостійно, а люди дізналися про розстріл постфактум.
Незвичайний випадок став надбанням громадськості тому, що ініціативна група при Раді Безпеки ООН порушила питання про заборону використання і випуску військових роботів, здатних вести вогонь на поразку.
Консультант із питань безпеки, який спеціалізується на безпілотних літальний апаратах Захарі Калленборн акцентував увагу на ризиках технічних збоїв і помилок, що виникають від того, що військова техніка може почати стрілянину самостійно.
Однак, Kargu не просто зброя — це система, яка самонавчається та сама ідентифікує цілі, на основі наявної в неї інформації, визначає тактику атаки. Кілька дронів можуть координувати свої дії, що власне й сталося у Лівії.
Причому, цілком очевидно, що йдеться не про помилку або технічний збій, а про ініціативу, проявлену штучним інтелектом.
Що спільного між дроном-вбивцею, який атакує військових у північній Африці та скромним роботом-пилососом, який прибирає приватну квартиру в Києві? Здатність виробляти дії, які "не замовляла" людина.
Сьогодні ці дії цілком відповідають інтересам господарів. Роботи мають свободу волі поки існують тільки в художній літературі та кінематографі.
Однак, системи штучного інтелекту, що навчаються самостійно, вважаються черговим витком прогресу цивілізації саме тому, що здатні самовдосконалюватися без участі людини.
Оборонні експерти, які обговорюють інцидент із Kargu-2 говорять про самостійне рішення, ухвалене роботами, як про щось незвичайне. Але хіба системи ШІ, що оточують нас у повсякденному житті, не ухвалюють тисячі рішень щохвилини?
Причому, роблять вони це, виконуючи безліч звичних нам операцій, настільки звичних, що ми давно перестали звертати на них увагу. Роботи ставлять собі завдання, виходячи з інформації, яку самі ж і збирають.
Якщо коли-небудь штучний інтелект розвинеться настільки, що в нього зʼявиться власна мотивація, яка йде врозріз із бажаннями людини, в реальності це може виглядати набагато гірше, ніж у популярних фантастичних фільмах.
Швидкість операцій та багатозадачність дадуть ШІ перевагу в протистоянні з людьми. Важливо не пропустити момент, коли штучний інтелект вперше проявить волю, яка відрізняється від нашої.
До речі, як ми про це дізнаємося?