Революция от ChatGPT. Почему весь мир обсуждает нейросеть, очень далекую от совершенства

Писательница Вохини Вара любит троллить нейросеть ChatGPT, выявляя ее несовершенство. Но она признает, что главного ее создатели добились: в 2023 году весь мир говорил об искусственном интеллекте и помогал ему.

Нейросеть, искусственный интеллект
Фото: Нейросеть | Нейросеть выполнила главную задачу - привлекла к себе всеобщее внимание

В начале этого года я первым делом спросила ChatGPT о себе: "Что вы можете рассказать мне о писательнице Вохини Вара?" Он сказал мне, что я журналист (правда, хотя я также писатель-фантаст), что я родилась в Калифорнии (ложь) и что я выиграла премию Джеральда Леба и премию Национального журнала (ложь, ложь).

После этого у меня появилась привычка часто спрашивать у него о себе. Однажды он рассказал мне, что Вохини Вара является автором научно-популярной книги под названием "Родственники и незнакомцы: установление мира на Северной территории Австралии". Это тоже было ложью, но я согласилась с этим, ответив, что считаю репортаж "опасным и трудным".

"Спасибо за вашу важную работу", — сказал ChatGPT.

Тролля продукт, разрекламированный как почти человек-собеседник, обманом заставляя его раскрыть свою суть, я почувствовала себя героиней в какой-то компьютерной игре "девушка против робота".

Различные формы искусственного интеллекта используются уже давно, но появление ChatGPT в конце прошлого года стало тем, что совершенно неожиданно привело ИИ в наше общественное сознание. К февралю ChatGPT стал по одному показателю самым быстрорастущим потребительским приложением в истории. Наши первые встречи показали, что эти технологии чрезвычайно эксцентричны — вспомните жуткий разговор Кевина Роуза с чат-ботом Bing, искусственным интеллектом от Microsoft, который в течение двух часов признался, что хочет быть человеком и влюблен в него — и часто, судя по моему опыту, дают крайне неправильную информацию.

Многое произошло в ИИ с тех пор: компании вышли за рамки базовых продуктов прошлого, представив более сложные инструменты, такие, как персонализированные чат-боты, сервисы, которые могут обрабатывать фотографии и звук наряду с текстом — и многое другое. Соперничество между OpenAI и более авторитетными технологическими компаниями стало более интенсивным, чем когда-либо, хотя более мелкие игроки набирали обороты. Правительства Китая, Европы и США предприняли важные шаги по регулированию развития технологий, стараясь при этом не уступать конкурентные позиции отраслям других стран.

Но что отличало этот год больше, чем какое-либо отдельное технологическое, деловое или политическое развитие, так это то, как ИИ проник в нашу повседневную жизнь, научив нас считать его недостатки своими собственными, в то время как компании, стоящие за ним, ловко использовали нас для обучения своего творения. К маю, когда выяснилось, что юристы использовали юридическую записку, заполненную ChatGPT ссылками на несуществующие судебные решения, как шутку, и штраф в 5000 долларов, которые адвокатам пришлось заплатить, была связана с ними, а не с технологией. "Это неловко", — сказал один из них судье.

Нечто подобное произошло и с дипфейками, созданными искусственным интеллектом, — цифровыми имитациями реальных людей. Помните, с каким ужасом на них смотрели? К марту, когда Крисси Тейген не смогла выяснить, было ли изображение Папы Римского в пуховике в стиле Balenciaga реальным, она написала в социальных сетях: "Я ненавижу себя, лол". Средние школы и университеты быстро перестали беспокоиться о том, как помешать учащимся использовать ИИ, чтобы показать им, как эффективно его использовать. ИИ по-прежнему не очень хорошо пишет, но теперь, когда он обнаруживает свои недостатки, высмеиваются студенты, которые плохо им пользуются, а не продукты.

Одна из известных фантазий нейросети Fullscreen
Одна из известных фантазий нейросети
Фото: Фокус

Хорошо, можете подумать вы, но разве мы не адаптировались к новым технологиям на протяжении большей части человеческой истории? Если мы собираемся их использовать, разве не должна лежать на нас ответственность действовать разумно? Эта линия рассуждений избегает того, что должно быть центральным вопросом: должны ли лживые чат-боты и механизмы дипфейков быть вообще доступны?

У ошибок искусственного интеллекта очаровательное антропоморфное название — галлюцинации, — но этот год ясно показал, насколько высокими могут быть ставки. Мы получили заголовки об искусственном интеллекте, способном инструктировать дроны-убийцы (с возможностью непредсказуемого поведения), отправлять людей в тюрьму (даже если они невиновны), проектировать мосты (с потенциально ненадлежащим надзором), диагностировать все виды заболеваний (иногда неправильно) и создавать убедительно звучащие новости (в некоторых случаях — для распространения политической дезинформации).

Как общество, мы явно выиграли от многообещающих технологий на основе искусственного интеллекта; в этом году я была рада прочитать об ИИ, которые могут обнаружить рак молочной железы, пропущенный врачами, или позволить людям расшифровать сообщения китов. Однако, сосредотачиваясь на этих преимуществах, мы упускаем из виду, что такой подход освобождает от ответственности компании, стоящие за этими технологиями, а точнее, людей, стоящих за этими компаниями.

События последних нескольких недель показывают, насколько укоренилась власть этих людей. OpenAI, организация, стоящая за ChatGPT, была создана как некоммерческая организация, чтобы максимизировать общественные интересы, а не просто максимизировать прибыль. Однако, когда совет директоров уволил генерального директора Сэма Альтмана из-за опасений, что он недостаточно серьезно относится к общественным интересам, инвесторы и сотрудники возмутились. Пять дней спустя г-н Альтман вернулся с триумфом, заменив большинство неудобных членов совета директоров.

Оглядываясь назад, я думаю, что в ранних играх с ChatGPT я неправильно определила своего соперника. Я думала, дело в самой технологии. Мне следовало помнить, что сами по себе технологии нейтральны по отношению к ценностям. Богатые и влиятельные люди, стоящие за ними, а также институты, созданные этими людьми, — нет.

Правда вот в чем: что бы я ни спрашивала у ChatGPT в моих первых попытках его запутать, OpenAI вышел вперед. Инженеры спроектировали его так, чтобы учиться на опыте взаимодействия с пользователями. И независимо от того, были ли его ответы хорошими, они возвращали меня к конактам с ним снова и снова. Основная цель OpenAI в этот первый год заключалась в том, чтобы заставить людей использовать его. Таким образом, продолжая свои игры, я лишь помогала им.

Разработчики ИИ прилагают все усилия, чтобы исправить недостатки своей продукции. При всех инвестициях, которые привлекают компании, можно предположить, что некоторый прогресс будет достигнут. Но даже в гипотетическом мире, в котором возможности ИИ совершенствуются (возможно, особенно в этом мире), дисбаланс сил между создателями ИИ и его пользователями должен заставить нас опасаться его коварного охвата. Ярким примером является кажущееся стремление ChatGPT не только представиться и рассказать нам, что это такое, но и рассказать нам, кто мы и что нам думать. Сегодня, когда технология находится в зачаточном состоянии, эта сила кажется новой и даже забавной. Завтра все может предстать в ином свете.

Недавно я спросила ChatGPT, что я — то есть журналистка Вохини Вара — думаю об ИИ. Он заявил, что у него недостаточно информации. Затем я попросила его написать вымышленную историю о журналисте по имени Вохини Вара, которая пишет для "Нью-Йорк Таймс" колонку об искусственном интеллекте. "В такт стуку дождя в окна, — писало издание, — появлялись слова Ваухини Вары о том, что, подобно симфонии, интеграция ИИ в нашу жизнь может стать прекрасной совместной композицией, если ее выполнять с осторожностью".

Автор выражает личное мнение, которое может не совпадать с позицией редакции. Ответственность за опубликованные данные в рубрике "Мнения" несет автор.

Источник.

Важно
ChatGPT взбунтовался. Почему нейросеть отказывается помогать людям
ChatGPT взбунтовался. Почему нейросеть отказывается помогать людям