Разделы
Материалы

"Проблема не в оружии, а в ИИ": четвертая мировая война будет вестись камнями и палками

Ирина Рефаги
Фото: teahub.io

Такое мнение высказала Лиран Антеби, научный сотрудник Института исследований национальной безопасности (INSS).

Наш страх перед беспилотниками ошибочен: реальная опасность — это технология, которая их запускает, считает Лиран Антеби, научный сотрудник Института исследований национальной безопасности (INSS).

"Я не знаю, каким оружием будет вестись третья мировая война, но четвертая мировая война будет вестись палками и камнями", — пишет ученая.

По мере приближения 2023 года стало ясно, что мир военных действий переходит от угрозы ядерных атак к киберпространству. Искусственный интеллект проникает во все аспекты нашей жизни, и это был лишь вопрос времени, когда он начнет применяться в наших системах вооружения, говорится в материале CTech.

Лиран Антеби считает, что оружие не вызывает столько беспокойства, сколько автономия ИИ-систем. "Мы должны справиться с технологией, пока не стало слишком поздно", — подчеркивает она. "Мы должны глубоко вникнуть в предмет, а также разбираться в том, как работает "экосистема" ИИ-технологий. Автономия ИИ сегодня актуальна как для вооруженных сил и корпораций, так и для небольших компаний. У каждого свои задачи для ИИ".

Конечно, искусственный интеллект уже присутствует в нашей повседневной жизни, автоматизируя некоторые ее аспекты. Частные компании создают автономные транспортные средства, автономную бытовую электронику, системы типа "умного" дома и пр. И людям это нравится, ведь так удобнее. Однако Антеби утверждает, что, когда об автономии говорят применительно к системам вооружений, то взгляды обывателей резко меняются.

"Когда мы говорим о военном вопросе, мы говорим о человеческих жизнях", — пояснила она. "Если есть огневая мощь, есть проблема выживания, проблема смерти и проблема спасения жизней. Когда речь заходит об автономных системах летального оружия, люди воспринимают это весьма критично, но только потому что они смертоносны. Однако и беспилотные автомобили тоже "смертоносны". И все же принято считать, что автономное оружие — это, прежде всего, оружие, то есть то, что убивает, а вот автономный автомобиль или беспилотник убить не может".

Антеби изучает то, как реализовывается автономия устройств на практике, а также связанные с этим проблемы и возможности. В прошлом она консультировала ООН в составе группы экспертов под названием IPRAW (Международная группа по регулированию автономных систем вооружений) и консультировала Министерство обороны Израиля по этим же вопросам.

"Я была одной из первых, по крайней мере в Израиле, кто утверждал, что проблема не в оружии, а в ИИ. Мы должны быть уверены, что ИИ совершенен, прежде чем дать ему возможность управлять хоть чем-нибудь — и не имеет значения, это будет оружие или авто, ведь он может по ошибке причинить вред или даже убить. Я говорю об автономных автомобилях, как у Telsa, я говорю и о разного рода робототехнике".

Ученая объяснила, что "этические решения", которые принимаются ИИ "самостоятельно" — это проблема и ответственность частных компаний, создающих технологии. Системы, которые, как ожидается, будут перевозить детей в автономных транспортных средствах или проводить атаки беспилотников на полях боевых действий, должны быть совершенными, прежде чем они смогут работать, получив кредит доверия граждан и правительств. Знаменитая дилемма, кого спасет робот во время пожара, или как дрон будет атаковать, чтобы поразить цель, потребует жесткого надзора и регулирования, чтобы автономия была удобной, но не смертельной.

"Кто решит за меня? Инженеры Tesla? Мне нужны люди в Кнессете, чтобы принимать законы. Но они не знают, как решать эти вопросы, потому что технологии слишком сложны", — заключила она.

Ранее мы сообщали о том, что ИИ смогут со временем заменить пилотов самолетов.