Поучительная история об ошибках чат-ботов: нью-йоркский адвокат готовил документы для суда с помощью ChatGPT, и тот выдал вымышленное дело за реальное. Специалист не заметил ошибки и теперь может понести наказание, пишет NYT.
Речь о юристе фирмы Levidow, Levidow & Oberman Стивене Шварце — он защищал клиента авиакомпании Avianca Роберто Мату, который столкнулся с металлической тележкой, травмировал колено и обратился в суд.
Авиакомпания просила отклонить иск, а адвокаты истца возражали. Шварц представил отчет на 10 страниц, где сослался на принятые ранее решения по схожим делам. После изучения этих данных ни судья, ни юристы Avianca не нашли в судебных базах упомянутые в отчете данные.
Затем Шварц признался, что для подготовки документа использовал ChatGPT. Адвокат уточнил, как проверял правдивость ответов — оказалось, он спрашивал у бота, реальны ли разбирательства, на которые он ссылается. Тот отвечал утвердительно.
Юрист рассказал, что до этого никогда не пользовался сервисом и потому «не знал, что его информация может быть недостоверной». Шварц пообещал больше не применять ChatGPT без «всесторонней проверки» его данных.
Суд заявил, что ситуация вышла беспрецедентной. По его оценке, «толкование правовой позиции состоит из ложных судебных постановлений, ссылок и цитат». 8 июня пройдет слушание, на котором рассмотрят «потенциальные меры наказания» Шварца. За плечами у адвоката 30 лет юридической практики.
Хочешь быть в курсе главных новостей про инновации и технологии? Подписывайся на нашу рассылку и telegram-канал INNOVATIONS!