ИИ сможет подделывать голоса: чем это опасно для простых людей и знаменитостей
Компания OpenAI выпустила инструмент, который может имитировать любой человеческий голос. Обозреватель Парми Олсон в колонке для Bloomberg задается вопросом: а стоит ли так безрассудно, стремительно и всеохватно развивать искусственный интеллект?
Последний новый инструмент от OpenAI настолько чувствителен и противоречив, что компания до сих пор его не выпустила. Эта система, известная как Voice Engine, "генерирует естественно звучащую речь, очень похожую на оригинальную", используя всего лишь 15-секундный образец голоса.
Такая технология не нова. Стартапы вроде Eleven Labs и HeyGen также могут клонировать голоса с небольшого фрагмента звука. Но OpenAI показала, что может выпускать продукты, которые лучше существующих конкурентов. Несмотря на это, OpenAI следовало полностью избегать этой области. Проблема не в технологии, а в более широком стремлении OpenAI передать ИИ в руки всем, кому это возможно.
Компания заявляет, что примет решение о развертывании Voice Engine "в большом масштабе" после того, как проведет небольшие тесты и оценит результаты "разговоров" о том, как общество будет адаптироваться. Клонирование голосов сопряжено с очевидными рисками, которые, как отмечает OpenAI, высоки в год важных выборов, но цель компании также состоит в том, чтобы "понять техническую границу и открыто поделиться тем, что становится возможным с помощью ИИ". Следует помнить, что OpenAI больше не является некоммерческой организацией — теперь это бизнес, обязанный сохранять лидерство в гонке ИИ, которую она начала.
Не удивляйтесь, если OpenAI в конечном итоге выпустит Voice Engine позднее в этом году. Компания высказала столь же осторожные заявления, когда в феврале 2019 года частично выпустила GPT-2, языковую модель, предшествовавшую ChatGPT, ссылаясь на опасения, что ею могут воспользоваться спамеры. Девять месяцев спустя компания выпустила полную модель, заявив, что "пока не увидела убедительных доказательств неправильного использования". Но стимулы также изменились. В тот же период OpenAI стала коммерческой компанией и получила инвестиции в размере 1 миллиарда долларов от Microsoft Corp.
Действительно ли OpenAI проявляет осторожность или использует осторожность как форму пиара? Заявленная миссия компании — "полезный ИИ" для человечества, поэтому в ее сообщении в блоге о Voice Engine, естественно, были показаны примеры его общественной пользы, в том числе то, как этот инструмент может предоставлять невербальные голоса пациентам и людям с ограниченными возможностями.
Хотя это благородные цели, доступность также уже давно используется для придания новым технологиям благожелательного внешнего вида. Программное обеспечение для преобразования текста в речь изначально рекламировалось как инструмент для помощи слепым, но впоследствии оно стало основой таких популярных приложений, как Siri, Google Assistant и системы GPS-навигации. Илон Маск рекламировал свой Neuralink как чип, который поможет парализованным, но его долгосрочная цель также — имплантировать его в мозг миллиардов людей.
На самом деле, искусственный интеллект грозит усложнить жизнь людям с ограниченными возможностями. Инструменты искусственного интеллекта, используемые для проверки претендентов на работу, непреднамеренно исключили людей с ограниченными возможностями, а расследование ProPublica, проведенное в 2023 году, показало, что страховой гигант Cigna использовал алгоритм, который позволял врачам подписывать массовые отказы, непропорционально ориентированные на людей с ограниченными возможностями. Cigna назвал репортажи ProPublica "предвзятыми и неполными".
Предложения OpenAI по ограничению этой технологии не внушают доверия. Предлагается создать "недопустимый список", чтобы заблокировать появление голосов, которые слишком похожи на "выдающихся деятелей". Но вредные побочные эффекты клонирования голоса повредят обычным людям больше, чем знаменитостям. Подавляющее большинство дипфейкового порно, которое распространилось за последний год благодаря достижениям в области генеративного искусственного интеллекта, затронуло не выдающихся людей, а обычных молодых женщин.
Проверка и аутентификация оригинальных динамиков — как намеревается сделать OpenAI — тоже не всегда работает. HeyGen, инструмент клонирования голоса с использованием искусственного интеллекта, с которым OpenAI сотрудничает в Voice Engine, недавно использовался для клонирования голоса украинской влиятельной личности на YouTube без ее ведома и согласия, как рассказала мне она сама. Ольга Лоек заметила водяной знак HeyGen на одном из сотен видеороликов с использованием ее тела и голоса в китайском приложении для социальных сетей. На своем сайте HeyGen сообщила, что для использования конкретного голоса требуется согласие человека. "Очевидно, что эта часть не работала", — сказал Лоек.
Также стоит отметить, что несколько примеров преимуществ Voice Engine, приведенных OpenAI, — например, предоставление голоса невербальному — не требуют клонирования голоса. Им просто нужно программное обеспечение, которое сможет генерировать синтетический продукт. Копирование человеческой речи открывает новую банку червей, ради которой просто не стоит рисковать. Он не только предоставляет инструмент мошенникам, троллям и другим лицам, распространяющим дезинформацию, но также, вероятно, бросит нож в развлекательный бизнес и сам Голливуд, где OpenAI обхаживает руководителей и демонстрирует свой инструмент для создания видео Sora. Технология клонирования голоса угрожает средствам существования актеров, как продемонстрировала на прошлой неделе одна британская актриса, опубликовав электронное письмо с отказом, в котором говорилось, что ее заменили "голосом, сгенерированным искусственным интеллектом".
Возможно, OpenAI нужно напомнить старую поговорку: если вы можете что-то сделать, это не значит, что вы должны это делать. Компания оказалась втянутой в гонку, которую спровоцировала выпуском ChatGPT, и теперь ей приходится сохранять лидерство, выпуская улучшенные версии конкурирующих инструментов и привлекая больше людей к использованию ее искусственного интеллекта. Вот почему недавно было снято требование авторизованного входа в ChatGPT.
OpenAI по-прежнему настаивает на том, что ее миссией является создание искусственного интеллекта для человечества, но потенциальный вред от клонирования голоса выглядит гораздо большим и более распространенным, чем преимущества. Компания преуспевает в том, чтобы оставаться в гонке как бизнес, но становится все более неясным, какую выгоду получит человечество.
Автор выражает личное мнение, которое может не совпадать с позицией редакции. Ответственность за опубликованные данные в рубрике "Мнения" несет автор.
Важно