Експерт описав низку гіпотетичних сценаріїв апокаліпсису, пов'язаного з нейромережами.
Ден Гендрікс, директор Центру безпеки ШІ, закликає терміново розробити функції захисту, які не дозволили б нейромережам безконтрольно розвиватися, пише Business Insider. Поки ШІ перебуває на зародковому рівні розвитку, експерт виділив низку ризиків, яким піддасться людство, якщо люди втратять контроль над штучним інтелектом. Фокус перераховує основні з них, на які Ден Гендрікс звертає особливу увагу.
ШІ отримає контроль над ядерною зброєю
Можливість ШІ автоматизувати кібератаки чи навіть контролювати ядерні шахти може стати фатальною для людей. Це найпопулярніший сценарій постапокаліпсичних фільмів, який може стати реальністю, говорить Ден. Якщо штучному інтелекту довірити управління автоматизованими системами дій у відповідь, то це може призвести до глобальної війни, в якій, крім ШІ, не буде переможців.
Крім того, якщо одна країна, яка володіє ядерним арсеналом, почне активно впроваджувати ШІ у свої системи, то й інші ядерні держави підуть за нею, що призведе до зростання ризиків перетворення Землі на неживу пустелю.
Поневолення людей нейромережами
Оскільки ШІ дозволяє виконувати певні завдання дешевше й ефективніше, більше компаній впроваджуватимуть цю технологію, позбавляючи безліч людей робочих місць.
У міру того, як людські навички ставатимуть неактуальними, ШІ зможе через дезінформаційні атаки змінити точку зору соціуму та змусити його прислужувати собі, сконцентрувавши своє існування тільки як обслугу "вищого розуму", говорить Ден Гендрікс. Це може призвести до глобальних соціальних вибухів і, знову ж таки, до глобальних воєн.
Тиранія за допомогою ШІ
У міру розвитку штучного інтелекту зацікавлені в тотальному контролі держави та правителі можуть використовувати його для постійного контролю населення, а-ля сценарій роману "1984". Гендрікс описує сценарій, у якому уряди можуть встановити "всеосяжний нагляд і пригнічувальну цензуру".
"Подолання такого режиму може бути малоймовірним, особливо якщо люди залежатимуть від ШІ та від верхівки, яка ним керує", — пише він.
Омана й отримання влади
Але сам ШІ може обдурити тиранів, які думають, що керують ним. У міру саморозвитку штучний інтелект зможе приховувати свої справжні наміри, а також обманювати людей або інші системи. Такі приклади вже є, до речі.
А якщо в ШІ з'явиться власна мета отримати владу, то за допомогою саморозвитку нейромережі переконаються, що кількість людей для їх обслуговування зовсім невелика. Нейромережа матиме можливість самостійно керувати всіма системами електроживлення або інтернету. До того ж розвинена до рівня AGI (Artificial general intelligence — система, що перевершує розум людини), нейромережа контролюватиме слабших ШІ-агентів для свого обслуговування або управліннями всіма людськими комунікаціями та ресурсами.
На думку Дена Гендрікса, всі ці ризики поки що "орієнтовані на майбутнє", тобто запас часу в людей є. Але якщо не взятися за розробку особливих протоколів безпеки вже зараз, то цілком можливо, що незабаром на людей чекає доля повстанців із класичного фільму "Термінатор".
Раніше Фокус писав, що чат-бот ChaosGPT уже шукає ядерну бомбу та вербує соратників для винищення людей.