ИИ в судейской мантии: более половины федеральных судей США уже используют нейросети в работе
Опрос показал, что 60% судей применяют искусственный интеллект для подготовки заседаний и составления решений, несмотря на риски «галлюцинаций» и ложных цитат

Более половины опрошенных представителей высших судебных органов все чаще используют ИИ для подготовки к слушаниям и составления проектов решений.
Более половины федеральных судей США (60%) используют хотя бы один инструмент искусственного интеллекта в своей судейской работе, показало недавнее исследование Северо-Западного университета. Исследование основано на ответах 112 федеральных судей, выбранных из случайной выборки в 502 федеральных судей по делам о банкротстве, магистратов, окружных и апелляционных судов.
Использование ИИ в залах суда в последнее время привлекло внимание из-за сфабрикованных цитат и других ошибок, которые подорвали доверие к некоторым судебным документам. Опрос, опубликованный ранее на этой неделе, показывает, что эти инструменты сейчас внедряются не только адвокатами, но и федеральными судьями.
Согласно опросу, 60% судей используют ИИ хотя бы время от времени для таких задач, как изучение документов, проведение правовых исследований и составление или редактирование документов. Около 22% используют его ежедневно или еженедельно. Правовые исследования были самой распространенной задачей (30%), за ними следует изучение документов (16%).
Примерно каждый третий судья заявил, что разрешает или поощряет использование ИИ в своей канцелярии, в то время как 20% официально запрещают его. Более 45% сообщили, что не проходили обучение по ИИ от судебной администрации.
Хотя судьи признают риски ИИ, эксперты предупреждают, что его ненадежность может подорвать судебный авторитет. «Судьи принимают решения, которые очень важны для людей и разрешают серьезные споры, — сказал Эрик Познер, профессор права Чикагского университета. — Они не могут играть в азартные игры с технологией, которая до конца не изучена и, как известно, галлюцинирует».
Сторонники утверждают, что ИИ может повысить эффективность и помочь справиться с большой нагрузкой. «Мы осторожны, но первые результаты очень положительные», — сказал Кристофер Паттерсон, главный судья Флориды. «Мы оцениваем точность, пригодность и экономию времени».
Суды США уже выносили предупреждения и налагали санкции на адвокатов за использование контента, сгенерированного ИИ. В марте судьи Нью-Йорка призвали проверять цитаты из ИИ после того, как несколько кратких заявлений содержали сфабрикованные дела. Агентство Bloomberg сообщило в декабре, что сгенерированные ИИ ложные цитаты становятся растущей проблемой, а месяцем ранее несколько адвокатов были оштрафованы за подачу документов с сотнями ложных ссылок, созданных нейросетью.
Обеспокоенность по поводу влияния ИИ на работу, рынок труда, а также психическое и физическое здоровье людей растет во всем мире. ИИ часто выдает ложную или вводящую в заблуждение информацию, и эксперты предупреждают, что полагаться на него при принятии решений, связанных с жизнью и смертью, особенно опасно, что ставит вопросы о безопасности, подотчетности и социальных последствиях.
По мере того как ИИ все глубже проникает в судебную систему, возникает опасный парадокс: технология, призванная ускорить правосудие, может незаметно подорвать его основы. Если судьи начнут бездумно доверять алгоритмам, под угрозу попадут принципы индивидуального рассмотрения дел и прецедентного права. В долгосрочной перспективе это может привести к ситуации, когда решения будет выносить не человек, а статистическая модель, обученная на прошлых ошибках и предубеждениях. Эксперты настаивают на срочной разработке единых этических норм и обязательном техническом аудите всех ИИ-инструментов, допущенных в залы суда, прежде чем они станут причиной необратимой судебной ошибки.
Следите за новостями в Telegram
👇 Поделитесь в вашей соцсети


