Повстання машин реальне: у Китаї "військовий" ШІ вчать протистояти ворогам-людям
Дослідники використовують нейромережі на кшталт ChatGPT для того, щоб ШІ-система НВАК змогла навчитися розбиратися в людях.
Китайські вчені навчають експериментальний "військовий" штучний інтелект (ШІ) ефективнішої протидії непередбачуваним ворогам-людям за допомогою технологій, подібних до ChatGPT, пише SCMP.
"Уперше китайські військові публічно підтвердили використання комерційних ВММ у своїх цілях. Із міркувань безпеки військові інформаційні системи не підключають безпосередньо до цивільних мереж. Науковці теж не пояснили, як вони зв'язали ШІ-системи", — ідеться в матеріалі.
Навіщо військові Китаю використовують комерційний ШІ
Дослідницька лабораторія Сил стратегічної підтримки Народно-визвольної армії Китаю (НВАК), яка курує космічні, кібер-, розвідувальні та радіоелектронні розробки китайських збройних сил, встановила зв'язок між своєю системою ШІ та системами Ernie від Baidu й Spark від iFlyTek (це китайські великі мовні моделі (ВММ) на кшталт ChatGPT, — ред.).
Військовий ШІ перетворював величезні обсяги даних, отриманих від військових, на описову мову або зображення, а потім перенаправляв контент комерційним ШІ-моделям. Після того, як Ernie та Spark підтверджували отримання даних, військовий ШІ автоматично генерував підказки для глибшого обміну інформацією в межах таких завдань як бойове моделювання. Примітно, що вчені не втручалися в увесь цей процес.
Проєкт був детально описаний у рецензованій статті, опублікованій у грудні 2023 року в журналі Command Control & Simulation. Науковий співробітник Сунь Іфен і його команда з Університету інформаційної інженерії НВАК написали, що від проєкту можуть виграти як люди, так і машини, тому що моделювання різних сценаріїв за допомогою ШІ може допомогти ухвалити правильні рішення на полі бою, розробити успішну стратегію, налагодити логістику тощо.
Сунь Іфен і його колеги заявили, що їхня мета — зробити військовий ШІ "людянішим", щоб він розумів наміри командирів на всіх рівнях і добре спілкувався з людьми. Річ у тім, що більшість наявних військових ШІ аж надто синтетичні. Якщо вони зіткнутися з хитрими та непередбачуваними ворогами-людьми, то будуть легко ними обдурені. Однак комерційні ВММ, у яких вивчено практично всі аспекти життя людей, можуть допомогти військовому ШІ краще їх зрозуміти.
Як військовий ШІ навчився передбачати вчинки людей
Дослідники розповіли, що на практиці їм вдалося навчити ШІ передбачати дії людей. Команда змоделювала військове вторгнення США до Лівії у 2011 році. Військовий ШІ надав Ernie інформацію про озброєння й дислокацію обох армій. Після кількох раундів діалогу Ernie успішно передбачив наступний крок американських військових. Такі прогнози можуть компенсувати прорахунки, помилки, які роблять люди. Хоча не обійшлося й без проблем: прогнози Ernie іноді були вельми розпливчастими, даючи лише загальне уявлення про стратегії нападу без конкретики, необхідної військовим командирам.
Команда також експериментувала з мультимодальними методами зв'язку. Військовий ШІ створив детальну карту, яка потім була передана Spark для глибшого аналізу. В підсумку цей "ілюстративний" підхід значно поліпшив продуктивність обох ВММ, дозволивши їм створювати аналітичні звіти й прогнози, що відповідають практичним вимогам військових.
"Китай — не єдина країна, яка проводить подібні дослідження. Багато генералів із різних родів військ США публічно висловили інтерес до ChatGPT й аналогічних технологій і доручили дослідницьким установам і оборонним підрядникам вивчити можливі застосування генеративного ШІ у військових цілях, як-от аналіз розвідувальних даних, психологічна війна, управління дронами та розшифровка сигналів", — пишуть автори SCMP.
ВажливоЯкими можуть бути наслідки
Однак один учений заявив, що з нейромережами слід поводитися обережно, інакше може скластися ситуація, як у фільмах про Термінатора, тобто відбудеться повстання машин.
Нинішнє покоління нейромереж дуже потужне та складне, а тому становить потенційні ризики. Якщо ШІ надати необмежений доступ до військових мереж і конфіденційних даних про обладнання, наслідки можуть бути непередбачуваними.
"Ми повинні діяти обережно. В іншому разі сценарій, зображений у фільмах "Термінатор", дійсно може стати реальністю", — сказав учений, який попросив журналістів зберегти його конфіденційність.
Раніше ми писали про те, що стартап Rabbit після презентації свого ШІ-гаджета r1 на CES 2024 мав намір продати 500 пристроїв, проте протягом дня вдалося реалізувати 10 тис. за попередніми замовленнями.