Распознать подделку: новый взгляд на выявление сгенерированных изображений

Автор: Денис Аветисян


Исследователи предлагают инновационный метод обнаружения изображений, созданных искусственным интеллектом, основанный на анализе изменений признаков в замороженной модели CLIP-ViT.

☕️

Читаем отчёты, пьём кофе, ждём дивиденды. Если тебе надоел хайп и ты ищешь скучную, но стабильную гавань — добро пожаловать.

Телеграм канал
Анализ расхождений между слоями в реальных и сгенерированных изображениях показывает, что наиболее информативными для выявления подделок являются средние слои нейронной сети (слои 10-11 и 14-15), в то время как поверхностные и глубокие слои демонстрируют высокую согласованность между реальными и сгенерированными данными, что снижает их дискриминационную способность.
Анализ расхождений между слоями в реальных и сгенерированных изображениях показывает, что наиболее информативными для выявления подделок являются средние слои нейронной сети (слои 10-11 и 14-15), в то время как поверхностные и глубокие слои демонстрируют высокую согласованность между реальными и сгенерированными данными, что снижает их дискриминационную способность.

Метод использует расхождения в переходе слоев для более точного и надежного определения подлинности изображений, созданных генеративными моделями, такими как GAN и Diffusion Models.

Быстрое развитие генеративных моделей привело к созданию синтетических изображений, практически неотличимых от реальных, что создает риски для достоверности медиа и манипулирования контентом. В работе, озаглавленной ‘Layer Consistency Matters: Elegant Latent Transition Discrepancy for Generalizable Synthetic Image Detection’, предложен новый подход к обнаружению синтетических изображений, основанный на анализе различий в эволюции признаков между слоями замороженной модели CLIP-ViT. Установлено, что реальные изображения демонстрируют более стабильные переходы признаков в скрытых представлениях, в то время как синтетические изображения проявляют заметные расхождения в межслойной согласованности. Позволит ли предложенный метод LTD значительно повысить надежность систем обнаружения поддельного контента и обеспечить более безопасное информационное пространство?


Раскрытие Искусства и Обмана: Вызов Синтетическим Медиа

Современные генеративные модели, такие как диффузионные модели и генеративно-состязательные сети (GAN), достигли впечатляющего уровня реализма в создании изображений. Они способны генерировать фотореалистичные изображения, практически неотличимые от настоящих фотографий, что стирает границы между подлинным и синтетическим контентом. Этот прогресс обусловлен усовершенствованием архитектур нейронных сетей и увеличением объемов обучающих данных. В результате, создаваемые изображения демонстрируют высокую детализацию, правдоподобные текстуры и освещение, что делает их все более убедительными для человеческого глаза и затрудняет их автоматическое обнаружение. Подобные технологии открывают новые возможности в области искусства, дизайна и развлечений, но одновременно создают серьезные вызовы в контексте информационной безопасности и достоверности визуального контента.

Распространение синтетического контента представляет собой серьезную угрозу для информационной безопасности и общественного доверия. Создание фотореалистичных изображений и видеороликов с помощью генеративных моделей, таких как диффузионные модели и GAN, открывает широкие возможности для распространения дезинформации и создания дипфейков. Эти манипуляции могут быть использованы для нанесения ущерба репутации, влияния на общественное мнение и даже для дестабилизации политических процессов. В связи с этим, разработка надежных и эффективных методов обнаружения синтетического контента становится критически важной задачей, требующей комплексного подхода и постоянного совершенствования алгоритмов для противодействия всё более изощренным технологиям подделки.

Существующие методы обнаружения синтетического контента сталкиваются со значительными трудностями при адаптации к разнообразию генеративных технологий. Разработанные для выявления артефактов, характерных для конкретных моделей, таких как генеративно-состязательные сети (GAN) или диффузионные модели, они часто оказываются неэффективными при анализе изображений, созданных с использованием иных подходов. Это связано с постоянным развитием алгоритмов генерации, которые всё более успешно имитируют реалистичные детали и избегают типичных «следов» синтеза. В результате, необходимы более устойчивые и обобщающие подходы к обнаружению, способные анализировать не конкретные артефакты, а фундаментальные различия между реальными и сгенерированными данными, независимо от используемой технологии создания. Разработка таких методов представляет собой ключевую задачу в борьбе с распространением дезинформации и манипуляций.

Сравнение различных архитектур сети показало, что точность обнаружения сильно зависит от стратегии предварительного обучения и вычислительной мощности модели, при этом наблюдаются значительные различия между CLIP ViT-L/14, CLIP ViT-B/16, ImageNet ViT-L/16 и Flava при оценке на генеративных моделях, основанных на GAN и диффузии.
Сравнение различных архитектур сети показало, что точность обнаружения сильно зависит от стратегии предварительного обучения и вычислительной мощности модели, при этом наблюдаются значительные различия между CLIP ViT-L/14, CLIP ViT-B/16, ImageNet ViT-L/16 и Flava при оценке на генеративных моделях, основанных на GAN и диффузии.

Анализ Переходов Слоев: Ключ к Распознаванию Подделок

Основой нашего детектора, использующего анализ расхождений между слоями (Layer Transition Discrepancy — LTD), является наблюдение, что в Vision Transformer (ViT) реальные изображения демонстрируют последовательную эволюцию признаков при прохождении через последовательные слои. Это означает, что признаки, извлеченные из изображения на ранних слоях ViT, претерпевают предсказуемые изменения по мере прохождения через более глубокие слои. Данная закономерность позволяет выделить отличия в эволюции признаков для синтетических изображений, где изменения между слоями могут быть менее согласованными или соответствовать иным шаблонам, чем в реальных изображениях. Именно эта последовательность в изменении представлений признаков и используется для идентификации аномалий и, как следствие, для определения подлинности изображения.

Анализ расхождений между представлениями признаков в соседних слоях Вижн Трансформера (ViT) позволяет выявлять аномалии, указывающие на синтетическое происхождение изображения. В процессе прямой прогонки изображения через ViT, каждый слой преобразует входные данные, и эти преобразования в реальных изображениях демонстрируют определенную последовательность и согласованность. Синтетические изображения, полученные, например, генеративными моделями, часто нарушают эту последовательность, приводя к статистически значимым расхождениям в изменениях признаков между слоями. Вычисление и анализ этих расхождений, основанных на метриках расстояния между представлениями признаков, служит основой для определения вероятности того, что изображение было сгенерировано искусственно.

Стратегия динамического отбора слоев (Dynamic Layer-wise Selection) представляет собой ключевой элемент повышения точности обнаружения синтетического контента. Вместо использования всех слоев Vision Transformer (ViT) для анализа расхождений между ними, данный подход автоматически определяет наиболее информативный поднабор слоев. Это достигается путем оценки вклада каждого слоя в максимизацию различий между признаками реальных и синтетических изображений, что позволяет исключить слои, вносящие незначительный вклад или содержащие избыточную информацию. В результате снижается вычислительная сложность и повышается эффективность детектора за счет фокусировки на наиболее релевантных слоях ViT.

Анализ косинусного сходства и L2-расстояния между слоями ViT демонстрирует стабильность признаков при переходе между слоями для реальных изображений, что подтверждается высокой скоростью вычислений и производительностью обнаружения на наборе данных UFD[37].
Анализ косинусного сходства и L2-расстояния между слоями ViT демонстрирует стабильность признаков при переходе между слоями для реальных изображений, что подтверждается высокой скоростью вычислений и производительностью обнаружения на наборе данных UFD[37].

Подтверждение Эффективности на Разнообразных Данных

Проведенные обширные эксперименты на наборах данных UFD, DRCT-2M и GenImage подтверждают эффективность разработанного нами детектора. Оценка проводилась на разнообразных данных, включающих изображения с различным разрешением и уровнем шума, что позволило всесторонне проверить его производительность в реальных условиях. Результаты демонстрируют превосходство предложенного метода над существующими аналогами по ключевым метрикам, таким как точность и средняя точность, на всех протестированных наборах данных.

На датасете UFD детектор демонстрирует среднюю точность в 96.90%, превосходя существующие методы. Дополнительно, средняя точность (Average Precision) на этом датасете составляет 99.51%. Данные показатели подтверждают превосходство разработанного детектора в задачах обнаружения объектов на сложных и реалистичных изображениях, содержащихся в UFD.

На датасете DRCT-2M детектор продемонстрировал среднюю точность в 99.54%, превзойдя все существующие базовые модели. Дополнительно, на датасете GenImage достигнута точность 90.27%, что на 2.44% выше, чем у метода, занявшего второе место. Данные результаты подтверждают высокую эффективность разработанного детектора при работе с разнообразными и реалистичными наборами данных.

Предложенная архитектура Layer Transition Discrepancy (LTD) использует дискриминативные промежуточные признаки из предварительно обученной Vision Transformer, обрабатывая их в двух ветвях - прямой последовательностью многослойных признаков и вычислением попарных различий между слоями - для классификации на основе объединенного представления, обработанного общим блоком Transformer и MLP.
Предложенная архитектура Layer Transition Discrepancy (LTD) использует дискриминативные промежуточные признаки из предварительно обученной Vision Transformer, обрабатывая их в двух ветвях — прямой последовательностью многослойных признаков и вычислением попарных различий между слоями — для классификации на основе объединенного представления, обработанного общим блоком Transformer и MLP.

За Гранью Обнаружения: К Универсальной Цифровой Криминалистике

Разработанный детектор демонстрирует высокую устойчивость к различным видам деградации изображений, таким как сжатие и добавление шума, что является ключевым свойством для практического применения в реальных условиях. В отличие от многих существующих методов, чувствительных к даже незначительным изменениям в пикселях, эта система способна сохранять высокую точность определения подделки, несмотря на потери качества изображения, вызванные распространенными процессами обработки. Это достигается благодаря акценту на выявлении фундаментальных артефактов, возникающих в процессе генерации, а не на анализе конкретных деталей изображения, которые могут быть изменены или удалены. Такая устойчивость делает детектор особенно ценным для анализа изображений, полученных из ненадежных источников или прошедших многократную обработку, обеспечивая надежную идентификацию сгенерированного контента даже в сложных условиях.

Разработанный детектор демонстрирует перспективную способность к обобщению, не ограничиваясь конкретной архитектурой генеративных моделей. В его основе лежит анализ универсальных артефактов, возникающих на стыках слоев нейронной сети в процессе генерации изображений. Вместо поиска специфических «следов» отдельных моделей, детектор концентрируется на фундаментальных несоответствиях, присущих любому процессу последовательной обработки данных. Это позволяет ему успешно идентифицировать сгенерированные изображения, даже если они созданы моделями, принципиально отличающимися от тех, на которых он был обучен. Таким образом, детектор открывает путь к созданию более устойчивых и универсальных инструментов для цифровой криминалистики в области искусственного интеллекта, способных адаптироваться к быстро меняющемуся ландшафту генеративных технологий.

В основе предложенного подхода лежит анализ внутренних характеристик изображений, а не специфических артефактов, присущих конкретным генеративным моделям. Такой принцип позволяет создать более универсальный и надежный инструментарий для криминалистической экспертизы изображений, созданных искусственным интеллектом. Вместо поиска следов, связанных с определенным алгоритмом, метод фокусируется на фундаментальных несоответствиях в структуре изображения, возникающих при переходе между слоями генеративной сети. Это обеспечивает устойчивость к изменениям в архитектуре моделей и возможность обнаружения сгенерированных изображений, даже если они созданы с использованием ранее неизвестных технологий. Перспективы развития включают создание комплексной системы, способной не только обнаруживать сгенерированные изображения, но и оценивать степень их манипуляции и определять использованные инструменты.

Предложенный метод LTD демонстрирует превосходную устойчивость к различным типам и уровням деградации изображения, включая сжатие JPEG и понижение дискретизации, в отличие от базовых моделей.
Предложенный метод LTD демонстрирует превосходную устойчивость к различным типам и уровням деградации изображения, включая сжатие JPEG и понижение дискретизации, в отличие от базовых моделей.

Исследование, представленное в данной работе, подтверждает важность анализа внутренних представлений нейронных сетей для выявления закономерностей, характерных для синтезированных изображений. В частности, предложенный метод оценки расхождения переходов слоев (Layer Transition Discrepancy) позволяет более эффективно обнаруживать искусственно созданный контент, чем существующие подходы. Как однажды заметил Джеффри Хинтон: «Искусственный интеллект — это не только о создании машин, которые думают, но и о понимании того, как мы сами думаем». Этот принцип находит отражение в стремлении понять, как именно генеративные модели, такие как GAN и Diffusion Models, изменяют признаки изображений на различных уровнях абстракции, что и позволяет выявлять их «цифровой след».

Что дальше?

Представленный подход, анализирующий несоответствия эволюции признаков в замороженной модели CLIP-ViT, безусловно, открывает новые перспективы в обнаружении синтетических изображений. Однако, как часто бывает, решение одной задачи порождает новые вопросы. Насколько универсальна данная метрика несоответствия слоёв для различных архитектур генеративных моделей? Сможет ли она эффективно работать с изображениями, сгенерированными моделями, обученными на существенно отличающихся наборах данных, или потребуется адаптация методики?

Интересно, что данная работа подчеркивает важность “внутреннего” анализа моделей, а не полагания исключительно на статистические артефакты в пиксельной области. Но не является ли эта фокусировка на внутренних представлениях признаков своего рода “черным ящиком”, уводящим от понимания фундаментальных различий между реальными и синтетическими данными? Возможно, будущие исследования должны быть направлены на поиск связей между метриками несоответствия слоёв и семантическими особенностями изображений.

В конечном счете, борьба с синтетическими изображениями — это гонка вооружений. По мере совершенствования генеративных моделей, методы обнаружения должны будут становиться всё более изощренными и устойчивыми. Понимание закономерностей в эволюции признаков, предложенное в данной работе, является важным шагом в этом направлении, но далеко не конечной точкой.


Оригинал статьи: https://arxiv.org/pdf/2603.10598.pdf

Связаться с автором: https://www.linkedin.com/in/avetisyan/

Смотрите также:

2026-03-13 04:48