Захарова предупредила о наступлении ‘информационного варварства’ из-за фейков и deepfake

Современные новостные агентства сталкиваются с растущим потоком поддельных изображений и видео, что создает серьезные вызовы для достоверности информации. Об этом заявила официальный представитель МИД России Мария Захарова, выступая на 19-й Генеральной ассамблее Организации информационных агентств Азиатско-Тихоокеанского региона (OANA).
По словам дипломата, стремительное развитие технологий deepfake погружает мир в эпоху «информационного варварства». Она призвала СМИ увеличить инвестиции в проверку фактов и верификацию видеоматериалов.
«Еще пару лет назад deepfake были диковинкой, способной лишь удивить людей. Но сегодня качество и количество поддельных видео ставит вопрос: готово ли человечество противостоять таким атакам? У меня нет однозначного ответа», — отметила Захарова.
Она подчеркнула, что злоумышленники используют любую возможность для распространения «ядовитых пилюль лжи», активно применяя генеративный контент в своих целях. МИД России регулярно опровергает фальшивые материалы с участием министра Сергея Лаврова и самой Захаровой, однако объем фейков продолжает расти, требуя все больше времени на их разоблачение.
«Проблема носит многоаспектный характер, — заявила представитель МИД. — Мы видим, как мошенники все чаще используют deepfake, что требует системного и всеобъемлющего международного реагирования».
Захарова отметила, что новостные агентства, как основные поставщики «сырой» информации в медиапространстве, находятся на передовой борьбы с фальсификациями. «Совершенно очевидно, что ведущим СМИ необходимы специальные отделы по проверке фактов, умеющие выявлять технологические уловки, которые делают недостоверную информацию правдоподобной», — заявила она.
Продолжение:
С 2017 года российский МИД ведет системную работу по противодействию «фейковым новостям». За это время опубликовано более 5 тысяч опровержений и 350 развернутых расследований информационных атак, направленных против национальных интересов России.
Эксперты отмечают, что проблема deepfake выходит за рамки политики — технология все чаще используется в финансовых махинациях. Так, в 2023 году участились случаи мошенничества с голосовыми клонами, когда злоумышленники имитировали голоса родственников для вымогательства денег.
«Мы наблюдаем глобальный кризис доверия к цифровому контенту, — заявил в ходе дискуссии директор Института информационной безопасности Алексей Соколов. — Необходима выработка международных стандартов маркировки синтетического контента и ужесточение ответственности за его злонамеренное использование».
В России уже готовятся законодательные инициативы по регулированию нейросетевых технологий. По данным Минцифры, к 2025 году может быть создан единый реестр deepfake-материалов, а использование синтетических медиа потребует обязательной маркировки.
👇 Поделитесь в вашей соцсети