ШІ зможе підробляти голоси: чим це небезпечно для простих людей та знаменитостей
Компанія OpenAI випустила інструмент, який може імітувати будь-який людський голос. Оглядач Пармі Олсон у колонці для Bloomberg ставить запитання: а чи варто так нерозважливо, стрімко і всеохопно розвивати штучний інтелект?
Останній новий інструмент від OpenAI настільки чутливий і суперечливий, що компанія досі його не випустила. Ця система, відома як Voice Engine, "генерує природно звучну мову, дуже схожу на оригінальну", використовуючи всього лише 15-секундний зразок голосу.
Така технологія не нова. Стартапи на кшталт Eleven Labs і HeyGen також можуть клонувати голоси з невеликого фрагмента звуку. Але OpenAI показала, що може випускати продукти, які кращі за наявних конкурентів. Попри це, OpenAI слід було повністю уникати цієї галузі. Проблема не в технології, а в ширшому прагненні OpenAI передати ШІ в руки всім, кому це можливо.
Компанія заявляє, що ухвалить рішення про розгортання Voice Engine "у великому масштабі" після того, як проведе невеликі тести й оцінить результати "розмов" про те, як суспільство адаптуватиметься. Клонування голосів пов'язане з очевидними ризиками, які, як зазначає OpenAI, високі в рік важливих виборів, але мета компанії також полягає в тому, щоб "зрозуміти технічну межу і відкрито поділитися тим, що стає можливим за допомогою ШІ". Слід пам'ятати, що OpenAI більше не є некомерційною організацією — тепер це бізнес, зобов'язаний зберігати лідерство в перегонах ШІ, які вона розпочала.
Не дивуйтеся, якщо OpenAI зрештою випустить Voice Engine пізніше цього року. Компанія висловила настільки ж обережні заяви, коли в лютому 2019 року частково випустила GPT-2, мовну модель, що передувала ChatGPT, посилаючись на побоювання, що нею можуть скористатися спамери. Дев'ять місяців потому компанія випустила повну модель, заявивши, що "поки не побачила переконливих доказів неправильного використання". Але стимули також змінилися. У той самий період OpenAI стала комерційною компанією і отримала інвестиції в розмірі 1 мільярда доларів від Microsoft Corp.
Чи справді OpenAI проявляє обережність або використовує обережність як форму піару? Заявлена місія компанії — "корисний ШІ" для людства, тому в її дописі в блозі про Voice Engine, природно, було показано приклади його суспільної користі, зокрема й те, як цей інструмент може надавати невербальні голоси пацієнтам і людям з обмеженими можливостями.
Хоча це благородні цілі, доступність також уже давно використовується для надання новим технологіям доброзичливого зовнішнього вигляду. Програмне забезпечення для перетворення тексту на мову спочатку рекламувалося як інструмент для допомоги сліпим, але згодом воно стало основою таких популярних застосунків, як Siri, Google Assistant і системи GPS-навігації. Ілон Маск рекламував свій Neuralink як чіп, який допоможе паралізованим, але його довгострокова мета також — імплантувати його в мозок мільярдів людей.
Насправді, штучний інтелект загрожує ускладнити життя людям з обмеженими можливостями. Інструменти штучного інтелекту, що використовуються для перевірки претендентів на роботу, ненавмисно виключили людей з обмеженими можливостями, а розслідування ProPublica, проведене 2023 року, показало, що страховий гігант Cigna використовував алгоритм, який давав змогу лікарям підписувати масові відмови, непропорційно орієнтовані на людей з обмеженими можливостями. Cigna назвав репортажі ProPublica "упередженими і неповними".
Пропозиції OpenAI щодо обмеження цієї технології не вселяють довіри. Пропонується створити "неприпустимий список", щоб заблокувати появу голосів, які занадто схожі на "видатних діячів". Але шкідливі побічні ефекти клонування голосу зашкодять звичайним людям більше, ніж знаменитостям. Переважна більшість дипфейкового порно, яке поширилося за останній рік завдяки досягненням у сфері генеративного штучного інтелекту, торкнулося не видатних людей, а звичайних молодих жінок.
Перевірка та автентифікація оригінальних динаміків — як має намір зробити OpenAI — теж не завжди працює. HeyGen, інструмент клонування голосу з використанням штучного інтелекту, з яким OpenAI співпрацює в Voice Engine, нещодавно використовували для клонування голосу української впливової особистості на YouTube без її відома і згоди, як розповіла мені вона сама. Ольга Лоєк помітила водяний знак HeyGen на одному із сотень відеороликів із використанням її тіла і голосу в китайському застосунку для соціальних мереж. На своєму сайті HeyGen повідомила, що для використання конкретного голосу потрібна згода людини. "Очевидно, що ця частина не працювала", — сказав Лоєк.
Також варто зазначити, що кілька прикладів переваг Voice Engine, наведених OpenAI, — наприклад, надання голосу невербальному — не потребують клонування голосу. Їм просто потрібне програмне забезпечення, яке зможе генерувати синтетичний продукт. Копіювання людської мови відкриває нову банку хробаків, заради якої просто не варто ризикувати. Він не тільки надає інструмент шахраям, тролям та іншим особам, які поширюють дезінформацію, але також, імовірно, кине ніж у розважальний бізнес і сам Голлівуд, де OpenAI працює з керівниками і демонструє свій інструмент для створення відео Sora. Технологія клонування голосу загрожує засобам існування акторів, як продемонструвала минулого тижня одна британська акторка, опублікувавши електронного листа з відмовою, в якому йшлося про те, що її замінили "голосом, згенерованим штучним інтелектом".
Можливо, OpenAI потрібно нагадати стару приказку: якщо ви можете щось зробити, це не означає, що ви повинні це робити. Компанія опинилася втягнутою в перегони, які спровокувала випуском ChatGPT, і тепер їй доводиться зберігати лідерство, випускаючи поліпшені версії конкуруючих інструментів і залучаючи більше людей до використання її штучного інтелекту. Ось чому нещодавно було знято вимогу авторизованого входу в ChatGPT.
OpenAI, як і раніше, наполягає на тому, що її місією є створення штучного інтелекту для людства, але потенційна шкода від клонування голосу виглядає набагато більшою і більш поширеною, ніж переваги. Компанія досягає успіху в тому, щоб залишатися в перегонах як бізнес, але стає дедалі незрозумілішим, яку вигоду отримає людство.
Автор висловлює особисту думку, яка може не збігатися з позицією редакції. Відповідальність за опубліковані дані в рубриці "Думки" несе автор.