Анализ фальсификации цифрового контента (Deepfake) с использованием нейросетей
Description
В данной статье рассматривается одна из наиболее актуальных угроз современной цифровой среды — фальсификация контента с использованием нейросетевых технологий (deepfake). Представлен обзор современных методов генерации и детекции поддельных визуальных и аудиовизуальных материалов, включая использование GAN, вариационных автоэнкодеров и моделей диффузии.
В работе исследуются ключевые нейросетевые архитектуры для выявления синтетических изображений и видео: CNN, LSTM, Vision Transformer, Swin-Transformer, а также гибридная модель CNN+Transformer. Проведён сравнительный анализ их точности, устойчивости к шумам, скорости обработки и чувствительности к различным типам фальсификации. Экспериментальные результаты показали, что современные трансформерные архитектуры и мультимодальные подходы значительно превосходят классические сверточные сети по качеству детекции.
Особое внимание уделено новым вызовам, связанным с распространением глубоких подделок, созданных при помощи diffusion-моделей, которые практически не оставляют традиционных артефактов. Представлены графические материалы, отражающие динамику роста точности детекции за 2018–2024 годы, влияние компрессии и сложности моделей на производительность.
В статье обсуждаются перспективы применения гибридных моделей, использование Explainable AI для обоснования решений, а также возможности интеграции систем детекции в государственные и корпоративные структуры. Полученные результаты демонстрируют необходимость перехода к мультимодальным и устойчивым к adversarial-воздействиям системам анализа, что является ключевым фактором в обеспечении информационной безопасности и доверия к цифровому контенту.
Files
Files
(139.4 kB)
| Name | Size | Download all |
|---|---|---|
|
md5:0f691d9a22f3485471c1a5a3496f426d
|
139.4 kB | Download |