Разделы
Материалы

Бунт машин откладывается. Как Евросоюз пытается бороться с искусственным интеллектом

Евросоюз согласовал первый в истории закон о контроле над развитием искусственного интеллекта. Но для его успешной реализации, отмечает в колонке для The Guardian эксперт по компьютерным технологиям Дэвид Эван Харрис, нужно, чтобы к нему присоединился весь остальной мир

Фото: Иллюстративное фото | Искусственный интеллект - под контроль

Законы Европейского Союза об искусственном интеллекте, о которых лидеры наконец объявили, были согласованы и находятся на пути к тому, чтобы полностью затмить британскую декларацию Блетчли шестинедельной давности об искусственном интеллекте. Текст соглашения о комплексе всеобъемлющих законов, регулирующих ИИ, еще не доработан, и в деталях можно обнаружить множество дьяволов, но его предстоящее появление сигнализирует о кардинальных изменениях в том, как демократия может направлять ИИ в интересах общества.

Декларация Блетчли стала огромным достижением, особенно для того, чтобы побудить такие страны, как Китай, Саудовская Аравия и ОАЭ, согласовать официальное заявление о регулировании ИИ. Проблема в том, что это было всего лишь заявление, не имеющее юридической силы или механизма исполнения. Теперь ЕС принимает меры по установлению жестких юридических требований к разработчикам искусственного интеллекта, и другие страны должны активизироваться и решить эту головоломку.

Последним препятствием, которое участники переговоров преодолели на прошлых выходных, был вопрос о том, какие виды использования ИИ будут полностью запрещены. К запрещенным практикам относятся "когнитивно-поведенческие манипуляции" — широкий термин для технологий, которые интерпретируют поведение и предпочтения с целью повлиять на наши решения. Они также включают "нецелевое извлечение изображений лиц из Интернета или записей с камер видеонаблюдения" — практику, которая уже используется некоторыми компаниями, продающими базы данных, используемые для наблюдения; "распознавание эмоций на рабочем месте и в учебных заведениях", которое компании могут использовать для дисциплинирования, ранжирования или микроменеджмента сотрудников; "социальный рейтинг", антиутопический инструмент наблюдения, используемый в Китае для оценки повседневной деятельности людей и выделения (или удержания) им "социального кредита"; "биометрическая категоризация" — практика, при которой такие характеристики, как оттенок кожи или структура лица, используются для того, чтобы сделать выводы о поле, сексуальной ориентации или даже вероятности совершения преступления; и "некоторые случаи профилактической работы полиции в отношении отдельных лиц", которая, как уже было доказано, имеет расово дискриминационные последствия.

Но пока не вздыхайте с облегчением. Точно так же, как климатический кризис является глобальной проблемой и может быть решен только в том случае, если все страны сократят выбросы, ИИ носит глобальный характер и может контролироваться только совместными усилиями многих стран. Мощные системы "ИИ общего назначения" (GPAI), подобные той, что лежит в основе ChatGPT, могут создавать персонализированные кампании по дезинформации и манипулированию, создавать интимные образы без согласия (NCII, иногда называемые дипфейковой порнографией) и даже разрабатывать проекты биологического оружия.

Если одна часть мира регулирует их, а затем другая выпускает незащищенные версии этих инструментов с "открытым исходным кодом", которые злоумышленники могут использовать в качестве оружия по своему желанию, весь мир все равно может пострадать от последствий. В число этих злоумышленников могут входить российская военная разведка ГРУ или цифровые наемники (наемные тролльские фермы), у которых может не быть средств или технологий для создания собственных моделей мирового класса, но которые могут заполучить мощные инструменты искусственного интеллекта, созданные без этих гарантий, и использовать их, чтобы попытаться манипулировать выборами по всему миру.

Запланированный закон ЕС об искусственном интеллекте, к сожалению, не идеален. Несмотря на то, что он устанавливает похвально строгие правила для GPAI, включая системы с "открытым исходным кодом", все еще существуют пробелы. По словам одного чиновника Европейской комиссии, с которым я разговаривал, если для создания NCII используются инструменты ИИ, такие, как приложения "раздевания", ответственность может возлагаться только на отдельного пользователя, создающего этот контент, а не на разработчика системы ИИ, которая его создала. Я бы предпочел, чтобы разработчикам было запрещено распространять инструменты, способные нанести такой потенциально непоправимый вред, особенно когда дети могут быть как преступниками, так и жертвами.

Еще одно беспокойство вызывает то, что закон ЕС об искусственном интеллекте не вступит в полную силу как минимум до 2026 года. Велика вероятность, что технология обгонит законодательство. Еще больший риск, если ЕС останется в одиночестве в вопросе законодательного регулирования ИИ.

Декларация Блетчли, принятая на первом саммите по безопасности ИИ, стала важной частью серии параллельных усилий, предпринимаемых в рамках "Большой семерки", "Большой двадцатки", ООН и Организации экономического сотрудничества и развития. Последующие саммиты по безопасности ИИ запланированы в Южной Корее и Франции в 2024 году.

Вот наиболее важные обязательные правила, которые должны быть установлены на этих саммитах и ​​параллельных процессах управления.

  1. Подтвердить условия запрета на использование, описанные выше.
  2. Жестко регулировать системы искусственного интеллекта с высоким уровнем риска, включая GPAI, требуя тщательной оценки рисков, тестирования и мер по их снижению.
  3. Требовать от компаний обеспечивать безопасность своих систем GPAI с высоким уровнем риска и не выпускать их по лицензиям с "открытым исходным кодом", если независимые эксперты не сочтут их безопасными.
  4. Четко возложить ответственность на разработчиков систем GPAI, а также на их пользователей за причиненный ими вред.
  5. Требовать, чтобы контент, созданный ИИ, имел "водяные знаки" таким образом, чтобы его могли легко обнаружить непрофессионалы, а также эксперты.
  6. Уважать авторские права авторов при обучении систем ИИ.
  7. Облагать налогом компании, работающие с ИИ, и использовать доходы для защиты общества от любого вреда, причиняемого ИИ, от дезинформации до потери рабочих мест.

Обеспечение того, чтобы ИИ развивался таким образом, чтобы служить общественным интересам, — это гигантская задача, которая потребует участия граждан и правительств во всем мире. Сейчас настало время для всех и повсюду получить информацию о рисках и преимуществах ИИ и потребовать, чтобы ваши избранные представители серьезно относились к его угрозам. ЕС положил хорошее начало; теперь остальному миру необходимо принять обязательное законодательство, чтобы ИИ служил вам и вашему сообществу.

Автор выражает личное мнение, которое может не совпадать с позицией редакции. Ответственность за опубликованные данные в рубрике "Мнения" несет автор.

Источник