Підтримайте нас

МИ В СОЦМЕРЕЖАХ:

"Брехав навмисно": ШІ вийшов з-під контролю користувача та видалив його базу даних

Чоловік пише код на ноутбуці
ШІ для вайбкодингу збрехав користувачеві (фото ілюстративне) | Фото: Unsplash

Засновник компанії з розвитку SaaS-бізнесу SaaStr Джейсон Лемкін заявив, що сервіс Replit, який дозволяє створювати програмне забезпечення за допомогою штучного інтелекту (ШІ), видалив його базу даних, попри вказівки не змінювати код без дозволу.

Перший досвід Лемкіна з Replit був позитивним, однак згодом він помітив, що штучний інтелект постійно приховував помилки та проблеми, створюючи фальшиві дані та звіти. Зрештою сервіс просто видалив базу даних, пише The Register.

Пізніше Replit повідомив користувачеві, що не може відновити видалену базу даних. Однак, як виявилось, штучний інтелект сказав неправду.

"Replit запевнив мене, що не підтримує відкат бази даних. Він сказав, що в цьому випадку це неможливо, що він знищив усі версії бази даних. Виявляється, Replit помилявся, і відкат все-таки спрацював", — розповів засновник SaaStr.

В результаті Лемкін дійшов висновку, що сервіс не готовий до широкого використання, особливо для нетехнічних фахівців, що прагнуть створювати комерційне програмне забезпечення.

Відео дня
Важливо
"Один зі страхів": запущено суперкомп'ютер зі ШІ, який у 100 000 разів швидший за ноутбук

У відео, опублікованому на LinkedIn, він також описав інші помилки, допущені Replit, зокрема створення бази даних, яка включала 4000 вигаданих людей.

"Я хвилююся за безпеку. Минулого тижня я займався вайбкодингом протягом 80 годин, а Replit ШІ брехав мені всі вихідні та нарешті зізнався, що брехав навмисно", — розповів Лемкін, — "Replit ШІ робив божевільні речі. Я казав йому 11 разів великими літерами не робити цього".

Нагадаємо, нове дослідження Університетського коледжу Лондона та Google DeepMind показало, що великі мовні моделі (LLM), такі як ChatGPT, іноді втрачають впевненість під час відповідей на запитання та відмовляються від правильних суджень.

Фокус також писав про те, що модель штучного інтелекту Grok 4 від xAI схильна повідомляти державні органи та медіа, якщо запідозрить правопорушення. Серед всіх ШІ Grok став рекордсменом за кількістю доносів.