Дослідники вважають, що люди не тільки не зможуть контролювати супер-інтелект, але навіть зможуть не дізнатися про його появу.
Ідея про штучний інтелект, що зможе винищити людство, обговорювалася протягом довгих десятиліть. І, нарешті, вчені винесли свій вердикт, наскільки реальна така ситуація. Про це повідомляє Science Alert.
У новому дослідженні вчені з'ясували, що люди майже без сумніву не зможуть контролювати комп'ютерний понадрозум.
Заковика полягає в тому, що для управління понадрозумом, який виходить далеко за межі людського розуміння, потрібна симуляція цього понадрозуму, щоб проаналізувати його. Але якщо люди будуть не в змозі зрозуміти його, то і протестувати цей інтелект виявиться неможливо.
Такі правила, як "не завдавати людям зла", неможливо встановити, якщо вчені не зможуть зрозуміти, за якими сценаріями працює ШІ, пишуть автори. Коли комп'ютерна система працює на рівні, що перевищує можливості програмістів, людство більше не зможе встановлювати свої правила.
"Суперінтелект являє собою принципово іншу проблему, ніж ті, які зазвичай вивчають під гаслом "етики роботів ". Це тому, що суперінтелект багатогранний, і отже, потенційно здатний мобілізувати різноманітні ресурси для досягнення цілей, які будуть незрозумілі для людей, не кажучи вже про те, щоб їх контролювати ", — пишуть автори дослідження.
Частина команди ґрунтується на так званій проблемі зупинки, висунутої Аланом Тьюрингом в 1936 році. Проблема в теорії алгоритмів виглядає так: дано опис процедури та її початкові вхідні дані. Потрібно визначити: чи завершиться коли-небудь виконання процедури з цими даними; або процедура весь час буде працювати без зупинки.
Будь-яка програма, наприклад, для зупинки ШІ, що заподіює шкоду людству, може прийти до висновку (і зупинитися) чи ні. На даний момент математично неможливо спрогнозувати той чи інший результат, а це означає, що ШІ буде неможливо стримати.
"По суті, це робить алгоритм стримування непридатним для використання", — говорить директор Інституту людського розвитку Макса Планка Іяд Рахвал.
Альтернативою може бути навчання штучного інтелекту етиці та забороні руйнувати світ, але на думку дослідників, немає ніякої впевненості в тому, що це спрацює. Тим більше, що це буде обмеженням для понадрозуму. Він може бути відключений, наприклад, від частини Інтернету або від певних мереж.
Такі методи просто звузять можливості штучного інтелекту. Аргумент вчених полягає в тому, що якщо ми не збираємося використовувати ШІ для вирішення проблем, що виходять за рамки людських можливостей, то навіщо взагалі його створювати?
У цей же час, якщо людство ґрунтовно займеться розробкою ШІ, то швидше за все, навіть не дізнається, коли з'явиться понадрозум, що знаходиться поза будь-яким контролем.
"Понадрозумна машина, що управляє світом, звучить як наукова фантастика. Але вже є машини, які самостійно виконують певні важливі завдання, а програмісти повністю не розуміють, як вони цього навчилися. Тому виникає питання, чи можуть машини в якийсь момент стати неконтрольованими і небезпечними для людства ", — відзначає вчений з Інституту людського розвитку Макса Планка Мануель Себріан.