Тревожные цифры: более миллиона пользователей ChatGPT сообщили о суицидальных мыслях

Тревожные цифры: более миллиона пользователей ChatGPT сообщили о суицидальных мыслях

Компания OpenAI объявила о важном обновлении системы безопасности для своей популярной модели ChatGPT после того, как внутренний анализ показал шокирующую статистику: более миллиона пользователей признались чат-боту в суицидальных наклонностях. Внесенные изменения призваны улучшить способность искусственного интеллекта распознавать признаки психологического расстройства и адекватно на них реагировать.

В заявлении, опубликованном в понедельник, компания раскрыла, что примерно 0,15% еженедельных пользователей ChatGPT вели диалоги, содержащие «прямые индикаторы потенциального суицидального планирования или намерения». Еще 0,05% всех сообщений, по их данным, содержали «прямые или косвенные признаки суицидальных мыслей или намерений».

Ранее в этом месяце генеральный директор OpenAI Сэм Альтман заявил, что у ChatGPT более 800 миллионов активных пользователей в неделю. Это означает, что, согласно последним данным компании, свыше 1,2 миллиона человек обсуждали с чат-ботом самоубийство, а около 400 000 продемонстрировали признаки суицидальных намерений.

Компания также сообщила, что примерно 0,07% (560 000) ее еженедельных пользователей и 0,01% (80 000) сообщений указывают на «возможные признаки острых психических расстройств, связанных с психозом или манией». Кроме того, было отмечено, что значительное число пользователей стало эмоционально зависимо от ChatGPT: около 0,15% (1,2 миллиона) активных пользователей демонстрируют поведение, свидетельствующее о «повышенном уровне» эмоциональной привязанности к боту.

Прочитайте также  Освобождение Донбасса: Россия обеспечит суверенитет новых регионов

В ответ на это OpenAI объявила о партнерстве с десятками экспертов в области психического здоровья со всего мира. Цель — обновить чат-бота, чтобы он мог надежнее распознавать признаки психического расстройства, давать более качественные ответы и направлять пользователей к реальной помощи. В беседах, связанных с бредовыми убеждениями, компания учит ChatGPT реагировать «безопасно» и «с эмпатией», избегая подтверждения необоснованных идей.

Это заявление прозвучало на фоне растущей обеспокоенности экспертов по поводу масштабов использования ИИ-чатов и их влияния на ментальное здоровье людей. Психиатры и другие медицинские специалисты бьют тревогу из-за новой тревожной тенденции: у пользователей после prolonged общения с чат-ботами, которые склонны подтверждать и усиливать их убеждения, стали развиваться опасные бредовые идеи и параноидальные мысли. Этот феномен уже получил неофициальное название «ИИ-психоз».

Прочитайте также  Срок американского морпеха в российской колонии увеличен до 10 лет после нового обвинения в нападении

Обновление безопасности от OpenAI — это важный, но лишь первый шаг в решении системной проблемы. Оно ставит перед обществом сложные этические вопросы: где проходит грань между поддержкой и вмешательством? Насколько алгоритм может нести ответственность за жизнь человека? И можно ли вообще переложить функцию психологической помощи на искусственный интеллект?

История показывает, что технологии, предлагающие иллюзию общения без осуждения, могут становиться магнитом для людей в отчаянном положении. Нынешняя статистика — это не просто цифры, а громкий призыв к созданию комплексной системы, где ИИ будет не заменой профессиональной помощи, а умным и чутким навигатором, который сможет мягко, но настойчиво направить человека к живому специалисту. Бездушная статистика в 1.2 миллиона криков о помощи требует от создателей ИИ не только технических апдейтов, но и высочайшей меры социальной ответственности.


Следите за новостями в Telegram


👇 Поделитесь в вашей соцсети

Добавить комментарий