Разделы
Материалы

Искусственный интеллект может создать "грязную бомбу": Anthropic хочет этого не допустить

Андрей Кадук
Искусственный интеллект может создать "грязную бомбу": Anthropic хочет этого не допустить | Фото: BBC

Компания Anthropic, занимающаяся разработкой искусственного интеллекта, ищет эксперта по оружию, чтобы предотвратить неправомерное использование ИИ для создания радиологического и химического оружия.

Американская компания Anthropic, разработчик искусственного интеллекта Claude, который уже использует Министерство обороны США, ищет эксперта по оружию, чтобы предотвратить злоупотребление своим программным обеспечением, пишет Фокус.

У Фокус. Технологии появился свой Telegram-канал. Подписывайтесь, чтобы не пропускать самые свежие и захватывающие новости из мира науки!

Anthropic опасается, что ее искусственный интеллект может подсказать кому-либо из пользователей как создавать химическое или радиоактивное оружие. Поэтому компания хочет нанять эксперта по оружию, который обеспечит достаточную надежность защитных механизмов ИИ.

В объявлении о вакансии на LinkedIn компания Anthropic указывает, что кандидаты должны иметь как минимум пятилетний опыт работы в области "защиты от химического оружия и/или взрывчатых веществ", а также знания о радиологическом оружии, также известном как "грязные бомбы".

Anthropic — не единственная компания, занимающаяся разработкой ИИ, которая использует эту стратегию. Аналогичная вакансия была размещена разработчиком ChatGPT, компанией OpenAI на своем сайте. Эта компания ищет эксперта в области "биологических и химических рисков" с зарплатой до 455 000 долларов, что почти вдвое больше, чем предлагает Anthropic.

Однако некоторые эксперты обеспокоены рисками такого подхода, предупреждая, что он предоставляет ИИ информацию об оружии, даже если искусственному интеллекту запрещено ее использовать и обрабатывать.

Стефани Хэр, исследователь в области технологий, говорит, что нет уверенности в том, что использование ИИ для обработки конфиденциальной информации о химическом оружии и взрывчатых веществах, включая "грязные бомбы" и другое радиологическое оружие, является безопасным.

По словам Хэр, нет международного договора или иного регулирования для такого рода работы и использования ИИ с такими видами оружия.

Разработчики ИИ постоянно предупреждает о потенциальных угрозах, исходящих от искусственного интеллекта, но нет никаких попыток предоставить его стремительное развитие. Проблема приобрела особую актуальность, поскольку Министерство обороны США уже использует ИИ во время своих военных операций, как это уже было в Венесуэле и происходит в Иране.

В Anthropic считают, что технология ИИ еще недостаточно совершенна и не должна использоваться в военных целях. В то же время искусственный интеллект Claude от Anthropic в настоящее время все еще используется военными США для анализа данных в ходе американо-израильской войны в Иране.

Как уже писал Фокус, эксперты предполагают, что генеративный ИИ может использоваться американскими военными при планировании современных военных операций.

Также Фокус писал о том, что ИИ готовится покинуть Землю: компания Nvidia представила систему чипов для орбитальных дата-центров.

При написании материала использованы источники: BBC.