Защитный механизм от нерадивых студентов и школьников, использующих нейросеть, далек от идеала.
Компания OpenAI, которая является разработчиком самого нашумевшего чат-бота ChatGPT попробовала ввести защитный механизм от использования своей нейросети для написания дипломов, сочинений и школьных работ нерадивыми учащимися, но у нее это не получилось, сообщает The Vice.
Компания выпустила специальный классификатор, который должен был сравнивать работы написанные человеком и собственным чат-ботом и определять авторство. Но, как признает сама OpenAI, ее механизм работает очень плохо и может найти различия только в 26% случаев.
Кроме того, в 9% случаев классификатор помечает текст написанный человеком, под авторством ИИ. Самая большая проблема возникает с текстами написанных на других языках, а не на "родном" английском.
Свой инструмент OpenAI разработала специально для преподавателей. Которые все чаще жалуются, что их учащиеся используют ChatGPT для написания любых работ: от сочинений и эссе до заданий по программированию. Сами же учителя не в состоянии распознать авторство представленного на оценку труда.
Впрочем, пока OpenAI совершенствует свой классификатор, 22-летний студент Эдвард Тиан разработал свой собственный детектор ChatGPT, бета-версию которого он запустил несколько дней назад и назвал его GPTZeroX. В этом чат-боте можно загрузить текст и проверить, кто его написал: человек или ИИ. Эдвард утверждает, что его механизм ошибается менее чем в 2% случаев.
Ранее Фокус писал, что ChatGPT оказался лучше 80% соискателей на вакансию, которую открыло консалтинговое агентство Schwa.