Published November 25, 2025 | Version v1
Publication Open

Анализ фальсификации цифрового контента (Deepfake) с использованием нейросетей

  • 1. ROR icon Satbayev University

Description

В данной статье рассматривается одна из наиболее актуальных угроз современной цифровой среды — фальсификация контента с использованием нейросетевых технологий (deepfake). Представлен обзор современных методов генерации и детекции поддельных визуальных и аудиовизуальных материалов, включая использование GAN, вариационных автоэнкодеров и моделей диффузии.

В работе исследуются ключевые нейросетевые архитектуры для выявления синтетических изображений и видео: CNN, LSTM, Vision Transformer, Swin-Transformer, а также гибридная модель CNN+Transformer. Проведён сравнительный анализ их точности, устойчивости к шумам, скорости обработки и чувствительности к различным типам фальсификации. Экспериментальные результаты показали, что современные трансформерные архитектуры и мультимодальные подходы значительно превосходят классические сверточные сети по качеству детекции.

Особое внимание уделено новым вызовам, связанным с распространением глубоких подделок, созданных при помощи diffusion-моделей, которые практически не оставляют традиционных артефактов. Представлены графические материалы, отражающие динамику роста точности детекции за 2018–2024 годы, влияние компрессии и сложности моделей на производительность.

В статье обсуждаются перспективы применения гибридных моделей, использование Explainable AI для обоснования решений, а также возможности интеграции систем детекции в государственные и корпоративные структуры. Полученные результаты демонстрируют необходимость перехода к мультимодальным и устойчивым к adversarial-воздействиям системам анализа, что является ключевым фактором в обеспечении информационной безопасности и доверия к цифровому контенту.

Files