Штучний інтелект може створити "брудну бомбу": Anthropic хоче цього не допустити
Компанія Anthropic, що займається розробкою штучного інтелекту, шукає експерта зі зброї, щоб запобігти неправомірному використанню ШІ для створення радіологічної та хімічної зброї.
Американська компанія Anthropic, розробник штучного інтелекту Claude, який вже використовує Міністерство оборони США, шукає експерта зі зброї, щоб запобігти зловживанню своїм програмним забезпеченням, пише Фокус.
У Фокус. Технології з'явився свій Telegram-канал. Підписуйтесь, щоб не пропускати найсвіжіші та найзахопливіші новини зі світу науки!
Anthropic побоюється, що її штучний інтелект може підказати будь-кому з користувачів як створювати хімічну або радіоактивну зброю. Тому компанія хоче найняти експерта зі зброї, який забезпечить достатню надійність захисних механізмів ШІ.
В оголошенні про вакансію на LinkedIn компанія Anthropic вказує, що кандидати повинні мати щонайменше п'ятирічний досвід роботи в галузі "захисту від хімічної зброї та/або вибухових речовин", а також знання про радіологічну зброю, також відому як "брудні бомби".
Anthropic — не єдина компанія, що займається розробкою ШІ, яка використовує цю стратегію. Аналогічна вакансія була розміщена розробником ChatGPT, компанією OpenAI на своєму сайті. Ця компанія шукає експерта в галузі "біологічних і хімічних ризиків" із зарплатою до 455 000 доларів, що майже вдвічі більше, ніж пропонує Anthropic.
Однак деякі експерти занепокоєні ризиками такого підходу, попереджаючи, що він надає ШІ інформацію про зброю, навіть якщо штучному інтелекту заборонено її використовувати та обробляти.
Стефані Хер, дослідниця в галузі технологій, каже, що немає впевненості в тому, що використання ШІ для обробки конфіденційної інформації про хімічну зброю і вибухові речовини, включно з "брудними бомбами" та іншою радіологічною зброєю, є безпечним.
За словами Хер, немає міжнародного договору чи іншого регулювання для такого роду роботи і використання ШІ з такими видами зброї.
Розробники ШІ постійно попереджають про потенційні загрози, які походять від штучного інтелекту, але немає жодних спроб запобігти його стрімкому розвитку. Проблема набула особливої актуальності, оскільки Міністерство оборони США вже використовує ШІ під час своїх військових операцій, як це вже було у Венесуелі та відбувається в Ірані.
В Anthropic вважають, що технологія ШІ ще недостатньо досконала і не повинна використовуватися у військових цілях. Водночас штучний інтелект Claude від Anthropic наразі все ще використовується військовими США для аналізу даних під час американо-ізраїльської війни в Ірані.
Як уже писав Фокус, експерти припускають, що генеративний ШІ може використовуватися американськими військовими під час планування сучасних військових операцій.
Також Фокус писав про те, що ШІ готується покинути Землю: компанія Nvidia представила систему чіпів для орбітальних дата-центрів.
Під час написання матеріалу використано джерела: BBC.