Бунт машин откладывается. Как Евросоюз пытается бороться с искусственным интеллектом

Евросоюз согласовал первый в истории закон о контроле над развитием искусственного интеллекта. Но для его успешной реализации, отмечает в колонке для The Guardian эксперт по компьютерным технологиям Дэвид Эван Харрис, нужно, чтобы к нему присоединился весь остальной мир

Искусственный интеллект, нейросеть
Фото: Иллюстративное фото | Искусственный интеллект - под контроль

Законы Европейского Союза об искусственном интеллекте, о которых лидеры наконец объявили, были согласованы и находятся на пути к тому, чтобы полностью затмить британскую декларацию Блетчли шестинедельной давности об искусственном интеллекте. Текст соглашения о комплексе всеобъемлющих законов, регулирующих ИИ, еще не доработан, и в деталях можно обнаружить множество дьяволов, но его предстоящее появление сигнализирует о кардинальных изменениях в том, как демократия может направлять ИИ в интересах общества.

Декларация Блетчли стала огромным достижением, особенно для того, чтобы побудить такие страны, как Китай, Саудовская Аравия и ОАЭ, согласовать официальное заявление о регулировании ИИ. Проблема в том, что это было всего лишь заявление, не имеющее юридической силы или механизма исполнения. Теперь ЕС принимает меры по установлению жестких юридических требований к разработчикам искусственного интеллекта, и другие страны должны активизироваться и решить эту головоломку.

Последним препятствием, которое участники переговоров преодолели на прошлых выходных, был вопрос о том, какие виды использования ИИ будут полностью запрещены. К запрещенным практикам относятся "когнитивно-поведенческие манипуляции" — широкий термин для технологий, которые интерпретируют поведение и предпочтения с целью повлиять на наши решения. Они также включают "нецелевое извлечение изображений лиц из Интернета или записей с камер видеонаблюдения" — практику, которая уже используется некоторыми компаниями, продающими базы данных, используемые для наблюдения; "распознавание эмоций на рабочем месте и в учебных заведениях", которое компании могут использовать для дисциплинирования, ранжирования или микроменеджмента сотрудников; "социальный рейтинг", антиутопический инструмент наблюдения, используемый в Китае для оценки повседневной деятельности людей и выделения (или удержания) им "социального кредита"; "биометрическая категоризация" — практика, при которой такие характеристики, как оттенок кожи или структура лица, используются для того, чтобы сделать выводы о поле, сексуальной ориентации или даже вероятности совершения преступления; и "некоторые случаи профилактической работы полиции в отношении отдельных лиц", которая, как уже было доказано, имеет расово дискриминационные последствия.

Но пока не вздыхайте с облегчением. Точно так же, как климатический кризис является глобальной проблемой и может быть решен только в том случае, если все страны сократят выбросы, ИИ носит глобальный характер и может контролироваться только совместными усилиями многих стран. Мощные системы "ИИ общего назначения" (GPAI), подобные той, что лежит в основе ChatGPT, могут создавать персонализированные кампании по дезинформации и манипулированию, создавать интимные образы без согласия (NCII, иногда называемые дипфейковой порнографией) и даже разрабатывать проекты биологического оружия.

Если одна часть мира регулирует их, а затем другая выпускает незащищенные версии этих инструментов с "открытым исходным кодом", которые злоумышленники могут использовать в качестве оружия по своему желанию, весь мир все равно может пострадать от последствий. В число этих злоумышленников могут входить российская военная разведка ГРУ или цифровые наемники (наемные тролльские фермы), у которых может не быть средств или технологий для создания собственных моделей мирового класса, но которые могут заполучить мощные инструменты искусственного интеллекта, созданные без этих гарантий, и использовать их, чтобы попытаться манипулировать выборами по всему миру.

Запланированный закон ЕС об искусственном интеллекте, к сожалению, не идеален. Несмотря на то, что он устанавливает похвально строгие правила для GPAI, включая системы с "открытым исходным кодом", все еще существуют пробелы. По словам одного чиновника Европейской комиссии, с которым я разговаривал, если для создания NCII используются инструменты ИИ, такие, как приложения "раздевания", ответственность может возлагаться только на отдельного пользователя, создающего этот контент, а не на разработчика системы ИИ, которая его создала. Я бы предпочел, чтобы разработчикам было запрещено распространять инструменты, способные нанести такой потенциально непоправимый вред, особенно когда дети могут быть как преступниками, так и жертвами.

Еще одно беспокойство вызывает то, что закон ЕС об искусственном интеллекте не вступит в полную силу как минимум до 2026 года. Велика вероятность, что технология обгонит законодательство. Еще больший риск, если ЕС останется в одиночестве в вопросе законодательного регулирования ИИ.

Важно
ChatGPT взбунтовался. Почему нейросеть отказывается помогать людям
ChatGPT взбунтовался. Почему нейросеть отказывается помогать людям

Декларация Блетчли, принятая на первом саммите по безопасности ИИ, стала важной частью серии параллельных усилий, предпринимаемых в рамках "Большой семерки", "Большой двадцатки", ООН и Организации экономического сотрудничества и развития. Последующие саммиты по безопасности ИИ запланированы в Южной Корее и Франции в 2024 году.

Вот наиболее важные обязательные правила, которые должны быть установлены на этих саммитах и ​​параллельных процессах управления.

  1. Подтвердить условия запрета на использование, описанные выше.
  2. Жестко регулировать системы искусственного интеллекта с высоким уровнем риска, включая GPAI, требуя тщательной оценки рисков, тестирования и мер по их снижению.
  3. Требовать от компаний обеспечивать безопасность своих систем GPAI с высоким уровнем риска и не выпускать их по лицензиям с "открытым исходным кодом", если независимые эксперты не сочтут их безопасными.
  4. Четко возложить ответственность на разработчиков систем GPAI, а также на их пользователей за причиненный ими вред.
  5. Требовать, чтобы контент, созданный ИИ, имел "водяные знаки" таким образом, чтобы его могли легко обнаружить непрофессионалы, а также эксперты.
  6. Уважать авторские права авторов при обучении систем ИИ.
  7. Облагать налогом компании, работающие с ИИ, и использовать доходы для защиты общества от любого вреда, причиняемого ИИ, от дезинформации до потери рабочих мест.

Обеспечение того, чтобы ИИ развивался таким образом, чтобы служить общественным интересам, — это гигантская задача, которая потребует участия граждан и правительств во всем мире. Сейчас настало время для всех и повсюду получить информацию о рисках и преимуществах ИИ и потребовать, чтобы ваши избранные представители серьезно относились к его угрозам. ЕС положил хорошее начало; теперь остальному миру необходимо принять обязательное законодательство, чтобы ИИ служил вам и вашему сообществу.

Автор выражает личное мнение, которое может не совпадать с позицией редакции. Ответственность за опубликованные данные в рубрике "Мнения" несет автор.

Источник

Важно
ChatGPT — слово 2023 года. Как искусственный интеллект покорил сеть и стал мировым трендом
ChatGPT — слово 2023 года. Как искусственный интеллект покорил сеть и стал мировым трендом