"Це корисно". Суддя довірив написання рішення штучному інтелекту: що вийшло

бізнесмен, ші, ChatGPT
Фото: Shutterstock | Британський суддя використовував ChatGPT для створення судового рішення

Суддя Бірсс попросив ChatGPT скласти для нього текст, який потім скопіював і вставив у документ.

Related video

Суддя, який працює в Апеляційному суді Великої Британії, зізнався, що використовував генеративний штучний інтелект ChatGPT для написання судового рішення. Про це повідомляє The Telegraph.

Виступаючи на заході Юридичного товариства, лорд-суддя Бірсс розповів, що звернувся до ChatGPT для створення параграфа для судових документів у справі, пов'язаній із правом інтелектуальної власності. Бірсс сказав, що він безпосередньо скопіював і вставив слова в написане ним рішення, додавши, що такі інструменти, як ChatGPT, мають великий потенціал.

"Я думаю, що найбільший інтерес становить те, що ви можете попросити ці великі мовні моделі узагальнити інформацію. Це корисно, і це буде використовуватися. І я можу сказати вам, що я використовував це", — заявив суддя.

Він також додав, що взяв на себе повну особисту відповідальність за свій вчинок і не збирається перекладати її на ШІ. За словами судді, він знав інформацію, яку запросив у ChatGPT, прочитав складений ним абзац і визнав його правдивим, у такий спосіб просто прискоривши свою роботу.

Медіа пише про те, що зізнання Бірсса вважаються першим відомим випадком, коли британський суддя зізнався у використанні генеративного штучного інтелекту у своїй роботі. Саме по собі воно є спірним, оскільки ChatGPT припускається безлічі помилок. Так, у США два адвокати зазнали жорсткої критики за використання чат-бота для захисту клієнта в суді після того, як судді зрозуміли, що програма генерує неправдиву інформацію.

Нагадаємо, у червні 2023 року вчені попросили ChatGPT створити процесор і чат-бот легко впорався із завданням. І хоча ШІ зміг детально описати тільки важливу базову частину нового чипа, вчені бачать у цьому величезний потенціал.

А в березні стало відомо про те, що ChatGPT-4 обдурив людину, прикинувшись "сліпим". Він "попросив" користувача пройти перевірку Captcha.