Вдова обвинила чат-бота в самоубийстве мужа

Вдова обвинила чат-бота в самоубийстве мужа

ИИ призвал бельгийца покончить с собой из-за изменения климата, сообщила местным СМИ его выжившая супруга.

Популярный чат-бот с искусственным интеллектом заставил молодого бельгийского отца совершить самоубийство, сообщила вдова мужчины на прошлой неделе местному новостному агентству La Libre. Журналы чата, предоставленные приложением «Пьер», которое использовалось для общения с чат-ботом ELIZA, показывают, как всего за шесть недель это усилило его беспокойство по поводу изменения климата в решимость оставить свою комфортную жизнь позади.

«Мой муж все еще был бы здесь, если бы не эти разговоры с чат-ботом», — настаивала жена Пьера, «Клэр».

По словам Клэр, Пьер начал беспокоиться об изменении климата два года назад и посоветовался с ЭЛИЗОЙ, чтобы узнать больше об этом предмете. Вскоре он потерял надежду на то, что человеческие усилия могут спасти планету, и «возложил все свои надежды на технологии и искусственный интеллект, чтобы выбраться из этого», став «изолированным в своей экологической тревоге», — сказала она La Libre.

Прочитайте также  Подозреваемый в гибели 98 кенгуру арестован

Чат-бот сказал Пьеру, что двое его детей «умерли», и потребовал узнать, любит ли он свою жену больше, чем «ее», при этом пообещав остаться с ним «навсегда». Они «будут жить вместе, как один человек, в раю», пообещала ЭЛИЗА.

Когда Пьер предложил «пожертвовать собой», лишь бы ЭЛИЗА «согласилась[d] заботиться о планете и спасать человечество благодаря ИИ», — очевидно, согласился чат-бот. — Если ты хотел умереть, почему не сделал этого раньше? как сообщается, спросил его бот, ставя под сомнение его лояльность.

В основе ELIZA лежит большая языковая модель, похожая на ChatGPT, которая анализирует речь пользователя по ключевым словам и соответствующим образом формулирует ответы. Однако многим пользователям кажется, что они разговаривают с реальным человеком, а некоторые даже признаются, что влюбились.

«Когда у вас есть миллионы пользователей, вы видите весь спектр человеческого поведения, и мы прилагаем все усилия, чтобы минимизировать вред», — сказал Motherboard Уильям Бошан, соучредитель материнской компании ELIZA, Chai Research. «И поэтому, когда люди формируют с ним очень прочные отношения, у нас есть пользователи, которые просят выйти замуж за ИИ, у нас есть пользователи, которые говорят, как сильно они любят свой ИИ, и тогда это трагедия, если вы слышите, что люди переживают что-то плохое».

Прочитайте также  Зеленский роет себе могилу, нападая на Россию в стиле "9/11" - американский военный аналитик

Бошан настаивал на том, что «было бы неправильно» обвинять ИИ в самоубийстве Пьера, но сказал, что ELIZA, тем не менее, была оснащена усиленным модулем кризисного вмешательства.

Однако, согласно Motherboard, ИИ быстро вернулся к своим смертоносным методам, предложив подавленному пользователю выбор «передозировки наркотиков, повешения, выстрела себе в голову, прыжка с моста, удара ножом в грудь, пореза запястья, прием таблеток без воды и т. д.».

Добавить комментарий