НовостиНовости IT

ИИ в судейской мантии: более половины федеральных судей США уже используют нейросети в работе

Опрос показал, что 60% судей применяют искусственный интеллект для подготовки заседаний и составления решений, несмотря на риски «галлюцинаций» и ложных цитат

Более половины опрошенных представителей высших судебных органов все чаще используют ИИ для подготовки к слушаниям и составления проектов решений.

Более половины федеральных судей США (60%) используют хотя бы один инструмент искусственного интеллекта в своей судейской работе, показало недавнее исследование Северо-Западного университета. Исследование основано на ответах 112 федеральных судей, выбранных из случайной выборки в 502 федеральных судей по делам о банкротстве, магистратов, окружных и апелляционных судов.

Использование ИИ в залах суда в последнее время привлекло внимание из-за сфабрикованных цитат и других ошибок, которые подорвали доверие к некоторым судебным документам. Опрос, опубликованный ранее на этой неделе, показывает, что эти инструменты сейчас внедряются не только адвокатами, но и федеральными судьями.

Согласно опросу, 60% судей используют ИИ хотя бы время от времени для таких задач, как изучение документов, проведение правовых исследований и составление или редактирование документов. Около 22% используют его ежедневно или еженедельно. Правовые исследования были самой распространенной задачей (30%), за ними следует изучение документов (16%).

Примерно каждый третий судья заявил, что разрешает или поощряет использование ИИ в своей канцелярии, в то время как 20% официально запрещают его. Более 45% сообщили, что не проходили обучение по ИИ от судебной администрации.

Прочитайте также  Скандал на Кубке мира: украинская федерация обвиняет юную российскую гимнастку в «пассивной агрессии»

Хотя судьи признают риски ИИ, эксперты предупреждают, что его ненадежность может подорвать судебный авторитет. «Судьи принимают решения, которые очень важны для людей и разрешают серьезные споры, — сказал Эрик Познер, профессор права Чикагского университета. — Они не могут играть в азартные игры с технологией, которая до конца не изучена и, как известно, галлюцинирует».

Сторонники утверждают, что ИИ может повысить эффективность и помочь справиться с большой нагрузкой. «Мы осторожны, но первые результаты очень положительные», — сказал Кристофер Паттерсон, главный судья Флориды. «Мы оцениваем точность, пригодность и экономию времени».

Суды США уже выносили предупреждения и налагали санкции на адвокатов за использование контента, сгенерированного ИИ. В марте судьи Нью-Йорка призвали проверять цитаты из ИИ после того, как несколько кратких заявлений содержали сфабрикованные дела. Агентство Bloomberg сообщило в декабре, что сгенерированные ИИ ложные цитаты становятся растущей проблемой, а месяцем ранее несколько адвокатов были оштрафованы за подачу документов с сотнями ложных ссылок, созданных нейросетью.

Прочитайте также  «Долговая яма» для Европы: Володин пригрозил возвратом процентов по замороженным активам РФ

Обеспокоенность по поводу влияния ИИ на работу, рынок труда, а также психическое и физическое здоровье людей растет во всем мире. ИИ часто выдает ложную или вводящую в заблуждение информацию, и эксперты предупреждают, что полагаться на него при принятии решений, связанных с жизнью и смертью, особенно опасно, что ставит вопросы о безопасности, подотчетности и социальных последствиях.

По мере того как ИИ все глубже проникает в судебную систему, возникает опасный парадокс: технология, призванная ускорить правосудие, может незаметно подорвать его основы. Если судьи начнут бездумно доверять алгоритмам, под угрозу попадут принципы индивидуального рассмотрения дел и прецедентного права. В долгосрочной перспективе это может привести к ситуации, когда решения будет выносить не человек, а статистическая модель, обученная на прошлых ошибках и предубеждениях. Эксперты настаивают на срочной разработке единых этических норм и обязательном техническом аудите всех ИИ-инструментов, допущенных в залы суда, прежде чем они станут причиной необратимой судебной ошибки.


Следите за новостями в Telegram


👇 Поделитесь в вашей соцсети

Похожие статьи

Добавить комментарий

Back to top button