Китайский ИИ признали очень опасным: почему нейросети КНР так волнуют Америку
В США боятся, что Китай повторит "российский сценарий", начав кибератаки после возможного нападения на Тайвань.
В Агентстве кибербезопасности и безопасности инфраструктуры (CISA, США) считают, что технологии вроде генеративного искусственного интеллекта, разрабатываемые в Китае, являются угрозой, пишет defenseone.com.
На недавнем мероприятии директор CISA, Джен Истерли, высказала опасения по поводу агрессивной кибер-позиции Пекина и развития "нерегулируемых" инструментов генеративного ИИ. Она призвала BigTech и операторов критической инфраструктуры уделить больше внимания усилению кибербезопасности. Истерли заявила, что "в случае конфликта, такого как блокада Тайваньского пролива, мы наверняка столкнемся с агрессивными кибероперациями в США", подразумевая хакерские атаки со стороны КНР.
На прошлой неделе CISA в сотрудничестве с партнерами по обмену разведданными Five Eyes опубликовала отчет касающийся вопросов кибербезопасности, в котором поделились техническими подробностями о связанной с Пекином группировке под названием Volt Typhoon, которая атакует сети операторов критической инфраструктуры. По словам Истерли, очень важно выделить бюджет для разработки системы защиты от потенциальных атак и взломов со стороны Китая. Издание напоминает, что Белый дом выделит CISA $3,1 млрд в 2024 финансовом году.
Директор CISA также сослалась на совместное заявление, опубликованное Центром безопасности ИИ, в котором более 350 экспертов, включая генерального директора OpenAI Сэма Альтмана, заявили, что проблемы, связанные с ИИ, должны рассматриваться на том же уровне, как и пандемия или угроза ядерной войны.
"Когда к вам приходят 350 экспертов и говорят, что существует вероятность вымирания человечества, я думаю, что есть о чем беспокоиться", — сказал Истерли, добавив, что "нам нужно быстро решить это", подразумевая регулирование в сфере ИИ.
В CISA считают, что ИИ сделает нашу жизнь проще и лучше, однако он также облегчит и улучшит жизнь противникам США, которые, по словам Истерли, "наводнят интернет-пространство дезинформацией, смогут проводить кибератаки и усовершенствовать всевозможные виды оружия". Разработчики могут заняться саморегулированием, не дожидаясь этого от государств, считает она.
Ранее мы сообщали о том, что дрон, управляемый ИИ, уничтожил виртуальную базу с оператором. Поначалу нейросеть обвинили в попытке убийства человека, но потом все же — оправдали.