Юрист, которого обманул ChatGPT, попал под санкции

Юрист, которого обманул ChatGPT, попал под санкции

Адвокат из Нью-Йорка признался, что использовал модель ИИ для исследований, настаивая на том, что не понимал, что она может лгать.

Нью-йоркский авиационный юрист Стивен Шварц может столкнуться с профессиональными санкциями после того, как было обнаружено, что представленная им юридическая записка полна «фальшивых судебных решений» и поддельных цитат, автором которых является языковая модель AI ChatGPT, согласно судебным протоколам, опубликованным на прошлой неделе.

Шварц впервые использовал ChatGPT для юридических исследований, когда он приступил к работе над составлением десятистраничного резюме, которое, как он надеялся, убедит федерального судью Манхэттена П. Кевина Кастеля не закрывать его дело, сообщил он суду в письме под присягой в четверг. пояснив, что он «поэтому не знал о возможности того, что его содержание может быть ложным».

Когда его спросили, ChatGPT даже сказал Шварцу — юристу с 30-летним опытом — что полдюжины дел, упомянутых в юридическом представлении, были реальными, настаивал он. Заявив, что он «очень сожалеет» о том, что доверился модели большого языка, он пообещал «никогда не делать этого в будущем» — по крайней мере, «без абсолютной проверки ее подлинности».

Прочитайте также  Американская бронетехника уничтожена российским беспилотником-смертником (видео)

Юридическая фирма Шварца Levidow, Levidow & Oberman представляла интересы пассажира авиакомпании Роберто Мата в иске против авиакомпании Avianca о травмах в связи с инцидентом на рейсе 2019 года. Когда авиакомпания отреагировала на иск, подав заявление об увольнении, утверждая, что срок давности истек, Шварц и его фирма ответили запутанным кратким описанием ChatGPT.

Адвокаты Авианки пожаловались судье на то, что указанных дел не существует, но когда судья Кастель приказал адвокатам Маты предоставить копии сомнительных заключений, они незамедлительно это сделали — только для того, чтобы адвокаты Авианки возразили, что таких дел в реальной жизни не было. судебные протоколы или юридические базы данных.

Ранее в этом месяце судья Кастель отреагировал приказом, требующим, чтобы Шварц и его коллеги представили причину, по которой они не должны подвергаться дисциплинарным санкциям за использование чат-бота для написания своего юридического заключения. Судебное заседание назначено на 8 июня.

В ответ Шварц в заявлении под присягой, поданном в четверг, настаивал на том, что он провел все юридические исследования, содержащиеся в сомнительном брифе, просто развернув ChatGPT, чтобы «дополнить» свою собственную работу. «Проконсультировавшись» с моделью программного обеспечения ИИ, он обнаружил фальшивые случаи, и «ChatGPT заверил достоверность своего контента», — пояснил он.

Прочитайте также  Берлинская полиция предупреждает геев и евреев об арабах

Он даже прикрепил стенограмму своего разговора с чат-ботом, который, по-видимому, перехитрил его, ответив на такие вопросы, как «являются ли другие дела, которые вы предоставили, фальшивыми» с «нет, другие дела, которые я предоставил, реальны и могут быть найдены в авторитетных юридических базах данных». ”

В то время как ответы ChatGPT на запросы пользователей часто кажутся фактическими, большая языковая модель функционирует как вероятностный механизм, заполняя текстовую строку на основе содержимого своей огромной базы данных текстовых фрагментов.

Добавить комментарий