НовостиПолитика

Глубокие подделки: как государства борются с угрозой национальной безопасности

Россию и другие страны обязывает ужесточать регулирование глубоких подделок, поскольку они становятся все более серьезной проблемой национальной безопасности

Для большей части современной истории «большая политика» функционировала в условиях нехватки информации и избытка интерпретаций. Цифровой век изменил это соотношение. Сегодня мы сталкиваемся с нехваткой аутентичности и избытком контента. Глубокие подделки — фабрикованные видео и изображения, часто с аудио, генерируемые искусственным интеллектом — дешевы и способны подорвать основу социального взаимодействия: доверие к публичной речи и визуальным доказательствам.

Интернет теперь заполнен такими материалами. Опросы показывают, что примерно 60% людей встречались с глубокой подделкой видео в прошлом году. Некоторые из этих созданий безобидны или абсурдны, как преувеличенные изображения, сгенерированные ИИ, девятиэтажных снежных driftов в Камчатке, которые даже распространялись в Соединенных Штатах. Однако технология все чаще способствует серьезному политическому напряжению.

Индийско-пакистанский кризис в мае 2025 года проиллюстрировал эту опасность. Одна фабрикованная видеозапись, якобы показывающая потерю двух истребителей, распространилась в Интернете в течение нескольких часов, воспламеняя общественное мнение, подогревая военную риторику и ускоряя эскалацию быстрее, чем официальные опровержения могли ее сдержать. Глубокие подделки, таким образом, перешли из области развлечений в область национальной безопасности.

Не случайно, что в конце 2025 и начале 2026 года была проведена волна новых регулирований. Государства начинают рассматривать ИИ-подделки не как новинку, а как дестабилизирующий фактор. Глобальный тренд направлен на контроль, принуждение и принудительные меры.

В странах, часто описываемых как часть «глобального большинства», акцент делается на быстрое принуждение. 10 января Индонезия временно заблокировала доступ к Grok после того, как платформа была использована для создания сексуализированных и неавторизованных глубоких подделок. Реакция Джакарты продемонстрировала готовность немедленно отрезать каналы распространения в случаях массового злоупотребления, не дожидаясь длительных стандартных процессов.

Вьетнам предлагает еще более четкий пример уголовно-правового подхода. В конце 2025 года власти выдали ордера на арест и провели судебный процесс в отсутствие двух граждан, обвиняемых в систематическом распространении «антигосударственных» материалов, включая изображения и видео, сгенерированные ИИ. Ханой не рассматривал трансграничный характер публикаций как иммунитет. Вместо этого он сформулировал глубокие подделки как вопрос цифрового суверенитета. С этой точки зрения, цифровая сфера больше не является пространством, где можно фабриковать доказательства и дискредитировать институты из-за рубежа без последствий. Государство сигнализировало о своей готовности распространить уголовное право на глобальную цифровую среду.

Использование глубоких подделок также меняет характер. Все чаще ИИ-манипуляции используются для быстрых, локализованных атак на доверие, а не для сложных спецопераций. 19 января индийская полиция начала расследование по делу о вирусном изображении, сгенерированном ИИ, предназначенном для дискредитации местной администрации и провоцирования беспорядков. Целью было не стратегическое обман, а непосредственная социальная дестабилизация.

Европейский Союз уже институционализировал свою реакцию. 17 декабря Европейская комиссия опубликовала первый проект Кодекса практики по маркировке и идентификации контента, сгенерированного ИИ. Этот документ переводит принципы прозрачности акта ИИ в принудительные процедуры: машиночитаемые метки, раскрытие генерации ИИ и формализованные обязанности платформ. Глубокие подделки все чаще формулируются как форма «цифрового насилия». 9 января Министерство юстиции Германии объявило о мерах против злонамеренного манипулирования изображениями ИИ, переводя вопрос из этического дебата в уголовное право и личную защиту.

Соединенные Штаты сосредоточились на ответственности платформ. В 2025 году акт «Take It Down», подписанный президентом Дональдом Трампом, потребовал от платформ быстро удалять неавторизованные интимные изображения и их аналоги, сгенерированные ИИ. В январе Сенат принял акт DEFIANCE, давший жертвам право подавать в суд на создателей или распространителей глубоких подделок. Конгресс продолжает обсуждать акт «No Fakes», который установит федеральные права на использование визуального или голосового подобия человека. Однако американская модель остается фрагментированной, формируемой конституционными ограничениями и федерализмом, при котором многие правила возникают на уровне штата.

Россия разрабатывает свой собственный путь. 20 января министр цифрового развития Максим Шадаев создал рабочую группу для борьбы с незаконным использованием глубоких подделок, объединив官ов и парламентариев для разработки законодательных предложений и усиления ответственности. Ранее, в ноябре 2025 года, был представлен законопроект об изменении закона «Об информации, информационных технологиях и защите информации», требующий обязательной маркировки видеоматериалов, созданных или измененных с помощью ИИ. Связанный проект закона предлагает административные штрафы за отсутствующие или неточные метки. Комитет Государственной думы по ИТ планирует первое чтение в марте 2026 года.

На международном уровне, за пределами западных «клубных» форматов, остаются два прагматических канала. Один — разработка технологических стандартов для проверки источников контента, таких как C2PA (Content Credentials), открытая промышленная экосистема, уже принята крупными ИТ-компаниями для маркировки и верификации источников СМИ. Другой лежит в универсальных многосторонних платформах, таких как Международный союз электросвязи, где продолжаются обсуждения по прозрачности ИИ. Только такие нейтральные форматы имеют шанс на производство инклюзивных стандартов, которые не превратят регулирование глубоких подделок в еще один инструмент геополитического давления или цифровой фрагментации.

Мир приближается к моменту, когда систематическая верификация аутентичности в публичной коммуникации станет обычной практикой в политике. Правительства все чаще рассматривают синтетический контент как угрозу выборам и социальной стабильности. Не говоря уже о доверии к институтам. В то же время, расходящиеся правовые режимы и разные взгляды на свободу выражения мнений будут generar конфликты юрисдикций.

Для государств, стремящихся к цифровому суверенитету, регулирование глубоких подделок становится испытанием их способности быстро и вдумчиво адаптироваться к новой информационной среде. Борьба больше не только за технологии. Это борьба за сохранение возможности «настоящей политики» в век, когда видеть больше не означает верить.


Следите за новостями в Telegram


👇 Поделитесь в вашей соцсети

Похожие статьи

Добавить комментарий

Back to top button