Суд в округе Вайоминг запросил объяснения у группы адвокатов, которые представили суду фальшивые судебные прецеденты. Оказалось, что юристы использовали искусственный интеллект для создания документов, но система сгенерировала вымышленные дела.
История началась с иска против Walmart и Jetson Electronic Bikes, Inc., который был подан в 2023 году. Семья из шести человек утверждает, что аккумулятор гироборда, купленного в Walmart, загорелся ночью, разрушив дом и причинив серьезные травмы. В январе 2024 года адвокаты попросили исключить определенные доказательства, ссылаясь на 8 судебных решений, которых на самом деле не существовало.
Судья обратил внимание, что указанные дела не были найдены в базе Westlaw и в системе судов Вайоминга, и потребовал объяснений от адвокатов. Юристы признали ошибку, объяснив, что их система ИИ при создании ходатайства выдумала дела. Этот случай вызвал обсуждения о контроле и использовании ИИ в их фирме.
Подобные случаи уже случались ранее. Например, в 2023 году адвокаты использовали несуществующие прецеденты, созданные ChatGPT, в случае иск против авиакомпании Avianca. Когда обман был выявлен, юристы продолжали настаивать на фиктивных цитатах и были оштрафованы на $5000.
В 2024 году адвокат Майкл Коэн представил ложные ссылки на дела, полученные от чат-бота Gemini. Хотя наказания не последовало, судья назвал ситуацию «нелепой и постыдной».
Использование искусственного интеллекта в юридической сфере становится все популярнее, но подобные инциденты показывают, что без должного контроля технология может привести к серьезным последствиям, включая санкции и дисквалификацию юристов.