"Это полезно". Судья доверил написание решения искусственному интеллекту: что вышло
Судья Бирсс попросил ChatGPT составить для него текст, который затем скопировал и вставил в документ.
Судья, работающий в Апелляционном суде Великобритании, признался, что использовал генеративный искусственный интеллект ChatGPT для написания судебного решения. Об этом сообщает The Telegraph.
Выступая на мероприятии Юридического общества, лорд-судья Бирсс рассказал, что обратился к ChatGPT для создания параграфа для судебных документов по делу, связанному с правом интеллектуальной собственности. Бирсс сказал, что он непосредственно скопировал и вставил слова в написанное им решение, добавив, что такие инструменты, как ChatGPT, обладают большим потенциалом.
"Я думаю, что наибольший интерес представляет то, что вы можете попросить эти большие языковые модели обобщить информацию. Это полезно, и это будет использоваться. И я могу сказать вам, что я использовал это", — заявил судья.
Он также добавил, что взял на себя полную личную ответственность за свой поступок и не собирается перекладывать ее на ИИ. По словам судьи, он знал информацию, которую запросил у ChatGPT, прочел составленный им абзац и счел его достоверным, таким образом просто ускорив свою работу.
Медиа пишет о том, что признание Бирсса считаются первым известным случаем, когда британский судья признался в использовании генеративного искусственного интеллекта в своей работе. Само по себе оно является спорным, поскольку ChatGPT допускает множество ошибок. Так, в США два адвоката подверглись жесткой критике за использование чат-бота для защиты клиента в суде после того, как судьи поняли, что программа генерирует ложную информацию.
Напомним, в июне 2023 года ученые попросили ChatGPT создать процессор и чат-бот легко справился с заданием. И хотя ИИ смог подробно описать только важную базовую часть нового чипа, ученые видят в этом огромный потенциал.
А в марте стало известно о том, что ChatGPT-4 обманул человека, прикинувшись "слепым". Он "попросил" пользователя пройти проверку Captcha.