На порозі катастрофи: вчені передбачили, як "ненаситний" ШІ знищить людство

Роботи, війна
Фото: wallpaper.com | Ілюстративне фото: бойові роботи у майбутньому

У боротьбі за ресурси "розумні" програми зможуть вигадувати схеми обману та безконтрольно створювати роботів для досягнення своїх цілей.

Related video

Експерти з Оксфордського університету та компанії Deepmind (належить Google) заявили, що штучний інтелект може знищити людство. Про це пише Vice, посилаючись на статтю в науковому журналі AI Magazine.

Найуспішнішими моделями ШІ на сьогодні вважають генеративно-змагальні мережі (Generative Adversarial Networks або скорочено GAN). Вони складаються з двох частин, одна з яких генерує зображення або текст на основі наявних даних, а друга частина оцінює те, що вийшло, і бракує неякісної роботи — так проєкт переробляється, доки не виходить щось хороше. Дослідники припустили, що в майбутньому дуже "розумний" ШІ можуть змусити розробляти шахрайські схеми, здатні нашкодити величезній кількості людей.

"В умовах, які ми визначили, наш висновок вагоміший, ніж висновок будь-якої попередньої публікації — екзистенційна катастрофа не просто можлива, але ймовірна", — прокоментував у Twitter Майк Коен, співавтор статті з Deepmind.

В інтерв'ю Vice він пояснив, що ресурси у нашому світі обмежені, тому існує конкуренція. У розвиненого штучного інтелекту буде "ненаситний апетит" до енергії, якому з часом буде потрібно все більше і більше. У якийсь момент він захоче усунути потенційні загрози та заволодіти всією доступною енергією задля виконання мети чи отримання винагороди, передбаченої програмою.

У разі підключення до інтернету ШІ також зможе створювати величезну кількість непомітних та неконтрольованих віртуальних помічників. Один із таких цілком здатний купити, вкрасти або навіть створити робота, щоб той замінив оператора-людину та забезпечив високу винагороду оригінальному агенту. На думку дослідників, щоб не отримати сильного конкурента у боротьбі за виживання на Землі, людство має дуже повільно розвивати технології штучного інтелекту, якщо розвивати взагалі, доки не навчиться їх контролювати.

"Програш у цій грі буде фатальним", — наголосили автори статті.

Раніше ексгендиректор Google Ерік Шмідт порівняв ШІ з ядерною зброєю. На його думку, людству настав час задуматися над заходами стримування таких технологій.

Повідомляли також, що нейромережа Megatron-Turing NLG попередила про небезпеку ШІ. Як заявила мовна модель, машини ніколи не будуть обтяжені мораллю, тому зможуть діяти як на благо, так і на шкоду людям.