OpenAI не може розпізнати текст власного чат-бота ChatGPT: як це вийшло

нейромережа, ШІ, чат-бот
Фото: Getty Images

Захисний механізм від недбалих студентів і школярів, які використовують нейромережу, далекий від ідеалу.

Компанія OpenAI, яка є розробницею найгучнішого чат-бота ChatGPT, спробувала ввести захисний механізм від використання своєї нейромережі для написання дипломів, творів і шкільних робіт недбалими учнями, але це не вийшло, повідомляє The Vice.

Компанія випустила спеціальний класифікатор, який мав порівнювати роботи, написані людиною та власним чат-ботом, і визначати авторство. Але, як визнає сама OpenAI, її механізм працює дуже погано та може знайти відмінності лише у 26% випадків.

Крім того, у 9% випадків класифікатор позначає текст, написаний людиною, під авторством ШІ. Найбільша проблема виникає з текстами, написаних іншими мовами, а не "рідною" англійською.

Свій інструмент OpenAI розробила спеціально для викладачів, які все частіше скаржаться, що їхні учні використовують ChatGPT для написання будь-яких робіт: від творів і есеїв до завдань із програмування. Самі ж учителі неспроможні розпізнати авторство поданої оцінювання роботи.

Утім, поки OpenAI удосконалює свій класифікатор, 22-річний студент Едвард Тіан розробив свій власний детектор ChatGPT, бета-версію якого він запустив кілька днів тому, та назвав його GPTZeroX. У цьому чат-боті можна завантажити текст і перевірити, хто його написав: людина чи ШІ. Едвард стверджує, що його механізм помиляється менш ніж у 2% випадків.

Раніше Фокус писав, що ChatGPT виявився кращим за 80% претендентів на вакансію, яку відкрило консалтингове агентство Schwa.