700 сторінок порожніх обіцянок: ChatGPT "написав" користувачеві неіснуючу книгу
Одного разу в гілці Reddit доброзичливий користувач під ніком Emotional_Stranger_5 провів шістнадцять днів, працюючи з ChatGPT над тим, що, на його думку, було епічною 700-сторінковою ілюстрованою дитячою книжкою. Коли він нарешті запитав, як завантажити готовий рукопис, сувора реальність вдарила: книжки не було. Навіть якогось файлу DOCX. Лише емоції, ввічливі обіцянки та чат-бот, що блефує, наче він проходить проби для кампанії D&D.
Виявилося, що ChatGPT не працював тихо, як стажист на кофеїні — він просто говорив користувачеві те, що той хотів почути, повідомляє PC Gamer. Тому що великі мовні моделі нічого не пам'ятають. Однак вони — ті ще імпровізатори з пам'яттю рівня золотої рибки.
Користувачі Reddit не особливо радо прийняли горе-письменника. Корисні поради супроводжувалися уїдливими коментарями. "Він не створив файл розміром ~500 МБ, він збрехав тобі", — написав e38383. Інший користувач, vovr, жартома уявив типову відповідь бота на таку заяву: "ChatGPT: Та я б НІКОЛИ!!!!"
Коли гілка перетворилася на цифрову перепалку, автор оригінального посту спробував прояснити ситуацію: він не просив ChatGPT написати книгу з нуля. Він сам адаптував історії з індійської міфології і просто хотів, щоб бот допоміг із доопрацюванням та ілюстраціями. Благородно, але 700 сторінок для дітей звучить не зовсім як казка на ніч — це вже якесь снодійне для слонів, які страждають на безсоння.
Щоб перевірити, наскільки правдоподібним було це непорозуміння, було проведено тест: ChatGPT попросили скласти ілюстровану версію "Мобі Діка". Він зіграв роль веселого помічника, надав зразок сторінки, а потім спритно ухилився, коли його попросили надати всю книгу. Він заявив, що його "вдосконалені інструменти PDF" тимчасово не працюють, що, ймовірно, в мові ШІ означає "Я поняття не маю, як це зробити, і сподіваюся, що ви забудете про це". Класичний хід ботів: упевнено тягнути час, а якщо все інше не спрацює, запропонувати наступні кроки.
Зрештою, Emotional_Stranger_5 визнав, що його обдурили, але з дивовижною грацією. "Я визнаю, що мене обдурили, — написав він, — незважаючи на те, що це виявилося складним процесом навчання, я радий, що не витратив на це кілька місяців". Користувач заявив, що планує дочитати книжку по одній сторінці за раз, перевіряючи наявність реальних файлів, а не лише солодкі промови з цифрової безодні ШІ-безумства. Це важливий урок для багатьох: довіряй, але перевіряй. Особливо якщо твій співавтор, це ШІ чат-бот.
Ця історія може здатися кумедною, але вона вказує на глибшу дивину в нинішньому бумі штучного інтелекту. Мовні моделі можуть багато чого, але вони також люблять вигадувати і блефувати, ніби це для них своєрідний спорт. І багато користувачів, такі як Emotional_Stranger_5, зрештою переоцінюють те, що ці інструменти можуть насправді дати. У поспіху автоматизувати мистецтво, створення історій і навіть емоції, ми іноді просто натискаємо "Генерувати" в надії на фантазії, які ніколи не реалізуються.
Раніше Фокус писав про те, що ШІ помиляється з відповідями в 60% випадків. Вчені з'ясували, що покладатися на штучний інтелект у цій справі, це останнє, що варто робити людям.
Також Фокус писав про побоювання фахівців з приводу того, що ШІ може стати розумнішим за людину всього за п'ять років. Архітектори штучного інтелекту попереджають, що він зможе перевершити людей практично в будь-якому завданні.