ООН предупреждает, что неконтролируемые технологии искусственного интеллекта и машинного обучения могут « нарушать права человека, наносить ущерб жизням », поскольку призывает к защите от злоупотреблений

ООН предупреждает, что неконтролируемые технологии искусственного интеллекта и машинного обучения могут « нарушать права человека, наносить ущерб жизням », поскольку призывает к защите от злоупотреблений

Глава ООН по правам человека призвал к мораторию на использование некоторых технологий искусственного интеллекта, таких как массовое распознавание лиц, до тех пор, пока не появятся «адекватные меры предосторожности» против их потенциально «катастрофического» воздействия.

В утверждение В среду Верховный комиссар ООН по правам человека Мишель Бачелет подчеркнула необходимость полного запрета приложений искусственного интеллекта, которые не соответствуют международному праву в области прав человека, а также призвала к приостановке продаж определенных технологий, вызывающих озабоченность.

Отметив, что алгоритмы искусственного интеллекта и машинного обучения теперь проникают «почти во все уголки нашей физической и психической жизни и даже в эмоциональные состояния», Бачелет сказал, что технология может стать «силой добра», но также может иметь «негативные, даже катастрофические последствия, если они используются без достаточного учета того, как они влияют на права человека ».

Системы искусственного интеллекта используются для определения того, кто пользуется государственными услугами, принятия решения о том, у кого есть шанс быть принятым на работу, и, конечно же, они влияют на то, какую информацию люди видят и могут делиться в Интернете.

Предупреждение Бачелет прозвучало после того, как Управление ООН по правам человека выпустило отчет, в котором проанализировано влияние систем ИИ, таких как профилирование, автоматизированное принятие решений и другие технологии машинного обучения, на различные основные права, включая неприкосновенность частной жизни, здоровье, образование и свободу выражения мнений. и движение.

Прочитайте также  Обвинения, предъявленные США, уничтожили более 26 млрд долларов стоимости индийского конгломерата

В отчете освещается ряд тревожных событий, в том числе «разрастающаяся экосистема в основном непрозрачного сбора и обмена личными данными», а также то, как системы искусственного интеллекта повлияли на «правительственные подходы к полицейской деятельности», «отправление правосудия» и «доступность». общественных услуг ».

В отчете добавлено, что принятие решений на основе ИИ может быть «дискриминационным», если оно полагается на устаревшие или нерелевантные данные, а также подчеркивает, что технология может использоваться для определения того, что люди видят и чем делятся в сети.

Однако в отчете отмечается, что наиболее острой необходимостью является «руководство по правам человека» в отношении биометрических технологий, которые измеряют и фиксируют уникальные особенности тела и способны распознавать конкретные человеческие лица, поскольку они «становятся все более популярным решением». для правительств, международных организаций и технологических компаний для решения различных задач.

В частности, в отчете содержится предупреждение о растущем использовании инструментов, которые пытаются «определить эмоциональное и психическое состояние людей» путем анализа выражений лица и других «прогнозных биометрических данных», чтобы определить, представляет ли человек угрозу безопасности. По заявлению правозащитного органа, технологии, которые стремятся собрать «понимание моделей человеческого поведения» и сделать прогнозы на этой основе, также вызывают «серьезные вопросы».

Прочитайте также  Американская бронетехника уничтожена российским беспилотником-смертником (видео)

Отмечая, что такая технология не имеет «прочной научной основы» и подвержена предвзятости, в отчете содержится предупреждение, что использование властями «систем распознавания эмоций» — например, во время остановок полиции, арестов и допросов — подрывает права человека на неприкосновенность частной жизни. свобода и справедливое судебное разбирательство.

«Риск дискриминации, связанный с решениями, основанными на искусственном интеллекте — решениями, которые могут изменить, определить или повредить человеческие жизни — слишком реален», — сказал Бачелет, добавив, что мир не может «позволить себе продолжать догонять» с быстро развивающимися странами. Технология искусственного интеллекта.

Добавить комментарий