
Anthropic, компания, которая публично подчеркивает свою направленность на «безопасность», стремясь ограничить военное использование своей технологии, оказалась вовлеченной в военную операцию США по захвату президента Венесуэлы Николаса Мадуро. Согласно сообщениям Axios и The Wall Street Journal, модель ИИ Claude от Anthropic была использована во время операции, в результате которой погибли десятки человек.
Claude была использована во время активной фазы операции, а не только в подготовительных этапах, сообщили Axios и WSJ. Точная роль модели остается неясной, хотя ранее военные использовали модели ИИ для анализа спутниковых изображений и разведданных в реальном времени.
Политика использования технологии Anthropic явно запрещает использование ее технологии для «содействия насилию, разработки оружия или проведения слежки». Хотя американские военные не понесли потерь, десятки венесуэльских и кубинских солдат и сотрудников безопасности были убиты 3 января.
Представитель Anthropic заявил Axios, что компания не может комментировать использование модели Claude или любой другой модели ИИ в конкретных операциях, классифицированных или нет. «Любое использование Claude, будь то в частном секторе или в государственном секторе, должно соответствовать нашим политикам использования», — добавил представитель.
Anthropic является одним из лидеров в индустрии ИИ, и ее модели используются в различных областях, включая оборону. Однако компания также подчеркивает свою направленность на безопасность и этику в использовании ИИ. Недавно CEO Dario Amodei предупредил о существенных опасностях, которые представляет собой неконтролируемое использование искусственного интеллекта.
В то же время Anthropic ведет переговоры с Пентагоном о том, чтобы смягчить ограничения на использование ИИ для автономных военных целей и внутренней слежки. Этот вопрос стал предметом спора, и контракт на сумму до 200 миллионов долларов был приостановлен. Министр обороны Пит Хегсет заявил, что не будет использовать модели, которые «не позволяют вам вести войны».
Эта ситуация ставит Anthropic в сложное положение, поскольку компания пытается сбалансировать свои обязательства по безопасности и этике с требованиями военных и государственных органов. Будущее использования технологии ИИ в военных целях остается неясным, и Anthropic, как один из лидеров в индустрии, будет играть важную роль в формировании этого будущего.
Следите за новостями в Telegram
👇 Поделитесь в вашей соцсети



