ChatGPT керуватиме з Пентагону? Які військові таємниці люди готові довірити ШІ

робот, ШІ, роботи, штучний інтелект
Ілюстративне фото: роботи стріляють лазерами

Лідери оборонного сектору зацікавлені у розгортанні нових інструментів на основі штучного інтелекту.

Великі мовні моделі (ВММ) та агенти генеративного штучного інтелекту, на зразок ChatGPT, привернули увагу громадськості, але Директор з цифрових технологій та штучного інтелекту Міністерства оборони США Крейг Мартелл сказав, що його турбує хаос, який такі інструменти можуть викликати у суспільстві, пише defenseone.com.

За словами Мартелла, він "до смерті наляканий" тим, як люди можуть використовувати ChatGPT та подібні інструменти, орієнтовані на споживача. Чат-боти, що відповідають на прості питання, викликають занепокоєння, бо люди почали їх використовувати для написання наукових статей та для консультацій щодо стану здоров'я. Не варто забувати, що це лише програми, які можуть знаходити неперевірений та недостовірний контент і вводити людей в оману. Коли Мартелла запитали, яке значення мають для суспільства та національної безпеки великі мовні моделі на кшталт ChatGPT він відповів: "Я боюся, що ми надто довіряємо ШІ. Розробники не дають жодних гарантій і не пропонують інструментів для перевірки інформації. У результаті люди спираються на відповіді ШІ, навіть якщо вони неточні".

Також експерт вважає, що нейромережі можуть використовуватись для дезінформації. Мінусом чат-ботів є і те, що вони не завжди розуміють контекст. Наприклад, журналіст Аза Раскін зміг прикинутися 13-річним підлітком та отримати від ВММ пораду, як спокусити 45-річного чоловіка. Саме тому Мартелл закликав розробників, які постачають програмне забезпечення для потреб Пентагону, робити все можливе, щоб користувачі могли легко відрізнити контент створений ШІ, від контенту створеного людиною. Щодо його власних пріоритетів для Міноборони, то ними є створення інфраструктури та політики обміну даними, які б дозволили військовим створити систему Спільного командування та контролю – JADC2.

Однак не всі співробітники Міноборони США поділяють побоювання Мартелла щодо ШІ та великих мовних моделей. Наприклад, генерал-лейтенант Роберт Скіннер, глава DISA, нещодавно виступив із промовою, частково написаною за допомогою ChatGPT. Журналістам він заявив, що сервіси типу ChatGPT його взагалі не лякають і не є проблемою для Пентагону, якщо їх навчитися правильно використовувати.

Стів Уоллес, головний технічний директор DISA, заявив, що користуватися перевагами ШІ наступного покоління цілком можливо. Головне, правильно вибрати постачальників послуг та правильно маркувати дані. Але Мартелл все ж застерігає від надмірного ентузіазму щодо ШІ-інструментів для маркування даних, які, за його словами, "просто не працюють".

Проте, Директор з цифрових технологій та штучного інтелекту МО США вважає ШІ непоганим активом, але тільки в тому випадку, якщо люди ним управлятимуть, а не віддаватимуть нейромережам все "на відкуп".

"Жодна ШІ-модель не витримує першого контакту зі світом. Кожна модель вже є застарілою на той час, коли ви її отримуєте, тому що вона була навчена на старих даних. Нам потрібно створити інструменти, що дозволяють контролювати ШІ-системи щоб останні мали для нас справжню цінність", — зазначив він.