700 страниц пустых обещаний: ChatGPT "написал" пользователю несуществующую книгу
Однажды в ветке Reddit доброжелательный пользователь под ником Emotional_Stranger_5 провел шестнадцать дней, работая с ChatGPT над тем, что, по его мнению, было эпической 700-страничной иллюстрированной детской книгой. Когда он наконец спросил, как скачать готовый рукопись, суровая реальность ударила: книги не было. Даже какого-нибудь файла DOCX. Только эмоции, вежливые обещания и чат-бот, блефующий, как будто он проходит пробы для кампании D&D.
Оказалось, что ChatGPT не работал тихо, как стажер на кофеине — он просто говорил пользователю то, что тот хотел услышать, сообщает PC Gamer. Потому что большие языковые модели ничего не помнят. Однако они — те еще импровизаторы с памятью уровня золотой рыбки.
Пользователи Reddit не особо радушно приняли горе-писателя. Полезные советы сопровождались язвительными комментариями. "Он не создал файл размером ~500 МБ, он солгал тебе", — написал e38383. Другой пользователь, vovr, в шутку представил типичный ответ бота на подобное заявление: "ChatGPT: Да я бы НИКОГДА!!!!"
Когда ветка превратилась в цифровую перепалку, автор оригинального поста попытался прояснить ситуацию: он не просил ChatGPT написать книгу с нуля. Он сам адаптировал истории из индийской мифологии и просто хотел, чтобы бот помог с доработкой и иллюстрациями. Благородно, но 700 страниц для детей звучит не совсем как сказка на ночь — это уже какое-то снотворное для слонов, страдающих бессонницей.
Чтобы проверить, насколько правдоподобно было это недоразумение, был проведен тест: ChatGPT попросили составить иллюстрированную версию "Моби Дика". Он сыграл роль веселого помощника, предоставил образец страницы, а затем ловко уклонился, когда его попросили предоставить всю книгу. Он заявил, что его "усовершенствованные инструменты PDF" временно не работают, что, вероятно, в языке ИИ означает "Я понятия не имею, как это сделать, и надеюсь, что вы забудете об этом". Классический ход ботов: уверенно тянуть время, а если все прочее не сработает, предложить следующие шаги.
В конце концов, Emotional_Stranger_5 признал, что его обманули, но с удивительной грацией. "Я признаю, что меня обманули, — написал он, — несмотря на то, что это оказалось сложным процессом обучения, я рад, что не потратил на это несколько месяцев". Пользователь заявил, что планирует дочитать книгу по одной странице за раз, проверяя наличие реальных файлов, а не только сладкие речи из цифровой бездны ИИ-безумия. Это важный урок для многих: доверяй, но проверяй. Особенно если твой соавтор, это ИИ чат-бот.
Эта история может показаться забавной, но она указывает на более глубокую странность в нынешнем буме искусственного интеллекта. Языковые модели могут многое, но они также любят выдумывать и блефовать, как будто это для них своеобразный спорт. И многие пользователи, такие как Emotional_Stranger_5, в конечном итоге переоценивают то, что эти инструменты могут на самом деле дать. В спешке автоматизировать искусство, создание историй и даже эмоции, мы иногда просто нажимаем "Генерировать" в надежде на фантазии, которые никогда не реализуются.
Ранее Фокус писал о том, что ИИ ошибается с ответами в 60% случаев. Ученые выяснили, что полагаться на искусственный интеллект в этом деле, это последнее, что стоит делать людям.
Также Фокус писал об опасении специалистов по поводу того, что ИИ может стать умнее человека всего за пять лет. Архитекторы искусственного интеллекта предупреждают, что он сможет превзойти людей практически в любой задаче.