НовостиНовости IT

Код без секретов: как «человеческий фактор» подписал приговор бизнес-модели Anthropic

Утечка десятков тысяч строк кода Claude Code вызвала волну копирований в Git’е и поставила под вопрос конкурентоспособность Amazon-бэкапнутого ИИ-гиганта

Внутренняя, крайне конфиденциальная документация и исходный код компании Anthropic, разрабатывающей одноимённого чат-бота Claude и пользующейся поддержкой Amazon, были случайно опубликованы в открытый доступ. Инцидент, описанный как ошибка персонала, а не взлом, стал причиной масштабной цифровой «эпидемии»: материалы мгновенно разлетелись по репозиториям GitHub, были скопированы тысячи раз, и, несмотря на попытки компании удалить их, полностью остановить распространение уже не удалось.

Утечка затронула более 500 000 строк кода, связанного с Claude Code — AI-ассистентом для программирования, который позволяет создавать и управлять кодом через естественные команды. Среди попавших в сеть данных — черновики невыпущенных функций, метрики производительности и внутренние заметки разработчиков.

Эксперты опасаются, что доступность «светильников» системы Claude Code может стать «дорожной картой» для злоумышленников. Это позволяет им обходить security-чеки, внедрять скрытые команды или получать несанкционированный доступ к данным, оставаясь незамеченными для пользователя. Данный инцидент угрожает не только коммерческим интересам Anthropic, но и потенциально подрывает доверие к её продуктам на рынке ИИ-ассистентов.

Прочитайте также  Раздор вокруг флагов ЕС: Националистический рост в Франции вызывает возмущение Парижа

Ситуация усугубляется тем, что это уже вторая за текущий год серьёзная утечка. В феврале из-за оставленного в публичном кэше материалов стали известны детали неанонсированной модели Claude Mythos, которую Insider характеризует как потенциально «самую мощную систему компании на сегодня». Документы предупреждали, что её массовое внедрение может нести «беспрецедентные риски для кибербезопасности». И именно эти опасения, согласно изданиям Fortune и Axios, стали причиной того, что Anthropic до сих пор не запустила модель в продуктив.

Контекст для таких инцидтов задаёт и политический пресс. В феврале министр обороны США Пит Хегсет официально обозначил Anthropic как «угрозу нацбезопасности» после противоречий с Пентагоном по поводу применения ИИ-систем в военных целях. Компания выступает против некоторых сценариев использования своей технологии военными, что и привело к конфронтации.

Прочитайте также  Индия строит многослойный щит ПВО: от «Тунгуски» до С-400

Сопоставляя эти факты — случайную публикацию кода, предшествующую утечку «Metric» и конфликт с оборонным ведомством — можно предположить системные проблемы с контролем информации внутри Anthropic. Это ставит под вопрос её способность управлять собственными технологиями и защищать интеллектуальную собственность, будучи зависимой отAmazon, но одновременно в конфликте с крупнейшими госструктурами мира. В конечном счете, «человеческие ошибки» в такой чувствительной области могут обернуться не только коммерческим ущербом, но и давлением наoregulatory и партнёрские отношения.


Следите за новостями в Telegram


👇 Поделитесь в вашей соцсети

Похожие статьи

Добавить комментарий

Back to top button