Исследователи разрабатывают искусственный интеллект, который может привлекать к уголовной ответственности преступников

Исследователи разрабатывают искусственный интеллект, который может привлекать к уголовной ответственности преступников

 

По сообщениям, китайские ученые построили машину «прокурор», которая использует искусственный интеллект для выдвижения обвинений. Исследователи утверждают, что система может предъявить обвинение с точностью 97%, если ей дан устный отчет о событиях.

Согласно опубликованному исследованию, машина была «обучена» с использованием информации, собранной из более чем 17000 дел с 2015 по 2020 год, и может правильно предъявлять обвинения по восьми наиболее распространенным преступлениям Шанхая, включая мошенничество с кредитными картами, кражи и «ссоры и провокации проблем». в этом месяце в отечественном рецензируемом журнале Management Review.

Обвинитель AI был разработан и протестирован Народной прокуратурой Шанхая Пудун, крупнейшей и самой загруженной районной прокуратурой Китая, сообщает South China Morning Post (SCMP). В документе отмечалось, что система может работать даже на настольном компьютере.

Он работает, выявляя подозреваемого и предъявляя ему обвинения на основе 1000 «черт», полученных из текста описания дела, передаваемого в машину. Большая часть этого текста либо слишком мала, либо слишком абстрактна, чтобы иметь смысл для людей.

По словам ведущего ученого проекта Ши Юна, система потенциально может взять на себя повседневную рабочую нагрузку прокуроров и освободить их, чтобы они могли сосредоточиться на более сложных задачах. Ши и его команда из лаборатории управления большими данными и знаниями Китайской академии наук отметили, что технология скоро получит обновления, чтобы стать достаточно мощной, чтобы распознавать менее распространенные преступления и выдвигать несколько обвинений против подозреваемого.

Система может в определенной степени заменить прокуроров в процессе принятия решений.

Китайские прокуроры начали использовать ИИ в 2016 году, отмечает SCMP, добавив, что многие поверенные теперь используют инструмент ИИ, известный как «Система 206», который оценивает силу доказательств, условия ареста и даже изучает, какую опасность подозреваемый представляет для общества.

Однако исследователи заявили, что все существующие инструменты ИИ были ограничены, поскольку «они не участвуют в процессе принятия решений о предъявлении обвинений и [suggesting] предложения.» Для таких решений потребуется, чтобы машина переводила сложный язык в математический формат, понятный компьютеру, без потери соответствующей информации в процессе преобразования.

Но неустановленный прокурор из Гуанчжоу сказал SCMP, что большинство прокуроров не хотят, чтобы компьютерные ученые «вмешивались» в судебные решения, учитывая вовлеченные ставки и риск ошибки.

«Кто возьмет на себя ответственность, когда [a mistake] бывает? Прокурор, машина или разработчик алгоритма? » они спросили.

 

 

Добавить комментарий