Передові держави здатні створювати кіберзброю, яка обійде будь-який захист: чим це загрожує
Зловмисне програмне забезпечення, створене штучним інтелектом, дасть змогу проводити швидкі та непомітні кібероперації, уражаючи комп'ютери та інші гаджети жертв.
Через навчання штучного інтелекту на великих базах даних технологічно просунуті держави вже можуть створити обхід наявних засобів кіберзахисту. Про це попереджає Національний центр кібербезпеки Великої Британії (NCSC).
Щоб створювати таке потужне програмне забезпечення, суб’єктам загроз потрібно навчити модель ШІ, використовуючи якісні бази експлойтів, шкідливих комп'ютерних програм, фрагментів кодів або послідовностей команд, що використовують уразливості систем. Отримана система створить новий код, який обійде поточні заходи безпеки.
"Існує реалістична ймовірність того, що високотехнологічні держави мають бази шкідливих програм, які є достатньо великими, щоб ефективно навчити модель штучного інтелекту для цієї мети", — попередив NCSC.
Це попередження було лише частиною серії тривожних сигналів, про які NCSC згадувало у своєму звіті. Агентство очікує, що штучний інтелект посилить глобальну загрозу програм-вимагачів, покращить пошук та відстеження жертв і знизить бар’єр для проникнення кіберзлочинців.
Генеративний ШІ також посилює загрози в області соціальної інженерії, як-от переконливі взаємодії з жертвами та створення спокусливих документів. ШІ ускладнить виявлення фішингу, спуфінгу та зловмисних запитів електронною поштою або скидання пароля. Завдяки цьому національні держави отримають найпотужнішу зброю.
"Дуже здібні державні суб’єкти майже напевно мають найбільший потенціал як джерела кіберзагроз, щоб використовувати потенціал штучного інтелекту в розширених кіберопераціях".
Проте в найближчій перспективі очікується, що штучний інтелект посилить наявні загрози, а не створить якісно нові ризики. Експерти особливо стурбовані тим, що це посилить глобальну загрозу програм-вимагачів.
"Програми-вимагачі продовжують становити загрозу національній безпеці", — каже Джеймс Беббідж, генеральний директор агенції.
Більш просунуті варіанти атак навряд чи будуть реалізовані до 2025 року, але після системи штучного інтелекту покращаться, вважають дослідники. Завдяки цьому почнуться успішні крадіжки даних, стануть можливими швидші та точніші кібероперації.
Навіть наявні системи ШІ здатні спровокувати небезпеку через їхню стійку схильність до обману, про яку писав Фокус.