Фейки на Выборах: Иллюзия Глубокого Влияния?

Автор: Денис Аветисян


Новое исследование показывает, что, несмотря на опасения, дипфейки не стали определяющим фактором канадских выборов 2025 года.

☕️

Читаем отчёты, пьём кофе, ждём дивиденды. Если тебе надоел хайп и ты ищешь скучную, но стабильную гавань — добро пожаловать.

Бесплатный Телеграм канал
Распространенность дипфейков на различных платформах демонстрирует выраженные различия в целях их создания: анализ данных с X, Bluesky и Reddit выявил специфические тенденции в циркуляции синтетического контента во время выборов, при этом общая доля дипфейков на каждой платформе также различается.
Распространенность дипфейков на различных платформах демонстрирует выраженные различия в целях их создания: анализ данных с X, Bluesky и Reddit выявил специфические тенденции в циркуляции синтетического контента во время выборов, при этом общая доля дипфейков на каждой платформе также различается.

Анализ распространения синтетических медиа в социальных сетях показал ограниченный охват и преимущественно неполитический характер дипфейков.

Несмотря на растущую обеспокоенность по поводу влияния искусственно созданного политического контента, эмпирических данных о реальном распространении дипфейков во время крупных демократических событий крайне мало. В работе ‘Deepfakes in the 2025 Canadian Election: Prevalence, Partisanship, and Platform Dynamics’ проведен один из первых углубленных анализов этих синтетических медиа в контексте федеральных выборов в Канаде в 2025 году, который показал, что дипфейки присутствовали в онлайн-дискуссии, однако их охват был умеренным, а большая часть контента носила нейтральный или неполитический характер. При этом, контент, созданный сторонниками правых взглядов, распространялся чаще, что поднимает вопросы о потенциальном использовании дипфейков для дезинформации и манипулирования общественным мнением. Каким образом можно эффективно противодействовать распространению вредоносных дипфейков и защитить целостность демократических процессов в эпоху развития искусственного интеллекта?


Искажение Реальности: Угроза Политических Дипфейков

Распространение изображений, созданных искусственным интеллектом, представляет собой серьезную угрозу для демократических процессов, особенно в период проведения выборов, таких как предстоящие федеральные выборы в Канаде в 2025 году. Анализ контента показал, что дипфейки составляют уже 5.86% от общего объема информации, что вызывает растущую обеспокоенность. Данный процент указывает на значительное увеличение влияния сфабрикованных материалов, способных исказить общественное мнение и подорвать доверие к источникам информации. В условиях нарастающей цифровой активности и все более совершенных технологий создания дипфейков, способность избирателей различать подлинные данные от сфабрикованных становится критически важной для обеспечения честности и прозрачности избирательного процесса.

Традиционные методы проверки достоверности информации, такие как фактчекинг и верификация источников, всё чаще оказываются неспособны справиться с лавинообразным ростом и усложнением политических дипфейков. Объём генерируемого искусственным интеллектом контента, включая фото- и видеоматериалы, превосходит возможности ручной проверки, а совершенство технологий создания дипфейков делает их всё сложнее отличить от реальности. Это создает серьёзные вызовы для поддержания общественного доверия к информации, особенно в контексте важных политических событий, и требует разработки новых, автоматизированных систем обнаружения манипуляций, способных оперативно анализировать большие объемы данных и выявлять подделки.

Понимание намерений, лежащих в основе политических дипфейков — будь то безобидное развлечение, сатирическое высказывание или злонамеренная дезинформация — представляется ключевым фактором для эффективного противодействия этой растущей угрозе. Исследования показывают, что простое выявление подделки недостаточно; необходимо установить мотивацию создателя, чтобы адекватно оценить потенциальный ущерб и разработать соответствующие стратегии нейтрализации. Например, сатирический дипфейк, хотя и вводящий в заблуждение, вряд ли нанесет такой же урон, как дипфейк, созданный с целью дискредитации кандидата или вмешательства в выборы. Поэтому, анализ контекста, источника и предполагаемой аудитории дипфейка имеет первостепенное значение для разработки эффективных механизмов защиты демократических процессов от манипуляций.

Исследование динамики распространения политических дипфейков в социальных сетях выявило, что, несмотря на относительно небольшую долю — всего 0.52% от общего числа просмотров на платформе X — их влияние может быть непропорционально велико. Ключевую роль в этом играют не только абсолютные показатели просмотров, но и такие факторы, как количество подписчиков у автора публикации, а также скорость распространения контента. Даже небольшое количество дипфейков, распространяемых аккаунтами с высокой аудиторией, способно создать значительный резонанс и повлиять на общественное мнение. Анализ показал, что алгоритмы социальных сетей, ориентированные на вовлеченность пользователей, могут усиливать эффект от распространения таких материалов, особенно если они вызывают эмоциональную реакцию или соответствуют существующим предубеждениям.

Анализ просмотров показал, что публикации с дипфейками, независимо от политической направленности, обычно получают меньше просмотров, чем аналогичные публикации без дипфейков.
Анализ просмотров показал, что публикации с дипфейками, независимо от политической направленности, обычно получают меньше просмотров, чем аналогичные публикации без дипфейков.

Обнаружение и Классификация Намерений Дипфейков

В рамках исследования для выявления дипфейк-изображений использовались методы обнаружения дипфейков с применением модели ConvNeXt-V2-Base. Оценка эффективности модели на независимом наборе данных “in-the-wild” показала значение F1-меры, равное 0.852. Данный показатель отражает сбалансированную точность и полноту обнаружения сгенерированных ИИ изображений в условиях реальных данных, что свидетельствует о высокой надежности модели в практическом применении.

Исследование не ограничивается простой идентификацией дипфейков, а также классифицирует их коммуникативные намерения. Для этого используются два подхода: модели «Vision-Language» (VLM) и большие языковые модели (LLM). VLM, в данном случае Qwen3-VL-32B-Instruct, анализирует как визуальный контент изображения, так и сопутствующий текстовый контекст. LLM, представленная моделью Llama 3.3 70B Instruct, обрабатывает текстовую информацию, извлеченную из изображения и его описания, для определения цели создания дипфейка, например, дезинформацию или манипуляцию общественным мнением. Комбинация этих подходов позволяет более точно понимать контекст и намерение, стоящие за созданием и распространением дипфейков.

Для классификации коммуникативных намерений дипфейков в данном исследовании используются две модели: мультимодальная модель Qwen3-VL-32B-Instruct, функционирующая как Vision-Language Model (VLM), и большая языковая модель Llama 3.3 70B Instruct, выполняющая роль Large Language Model (LLM). Qwen3-VL-32B-Instruct обрабатывает как визуальный контент изображения, так и текстовые данные, позволяя модели понимать взаимосвязь между ними. Llama 3.3 70B Instruct, в свою очередь, анализирует текстовые описания и контекст для более глубокого понимания намерения, стоящего за созданием дипфейка. Комбинация этих двух подходов обеспечивает более детальное и нюансированное распознавание целей, преследуемых создателями манипулируемого контента.

Для обучения модели обнаружения дипфейков используется датасет OpenFake, специализированный на контексте политической дезинформации. Данный датасет содержит изображения и соответствующие им текстовые описания, позволяющие модели не только идентифицировать сгенерированные ИИ изображения, но и учитывать специфику манипуляций, связанных с политическим контентом. OpenFake обеспечивает необходимые данные для повышения точности обнаружения дипфейков, ориентированных на искажение политической информации, что критически важно для противодействия дезинформации и обеспечения информационной безопасности.

Анализ семи категорий намерений показал широкий спектр применения сгенерированных ИИ изображений, от дезинформации и конспирологии до безобидных художественных работ.
Анализ семи категорий намерений показал широкий спектр применения сгенерированных ИИ изображений, от дезинформации и конспирологии до безобидных художественных работ.

Распределение Намерений в Социальных Сетях

Анализ контента, полученного с платформ ‘X’, ‘Bluesky’ и ‘Reddit’, показал разнообразие намерений, стоящих за политическими дипфейками. Общая распространенность дипфейков зафиксирована на уровне 7.9% контента на платформе ‘X’, что является максимальным показателем. Минимальная распространенность, 2.2%, наблюдается на платформе ‘Bluesky’. Данные свидетельствуют о существенных различиях в частоте появления дипфейков в зависимости от платформы, что указывает на специфику аудитории и алгоритмов каждой из них в отношении распространения подобного контента.

Исследование выявило разнообразные намерения, стоящие за политическими дипфейками. Помимо относительно безобидных форм выражения, зафиксированы случаи с выраженным намерением дискредитации (Defamatory Intent), направленные на нанесение ущерба репутации; конспирологическим намерением (Conspiratorial Intent), распространяющим теории заговора; пропагандистским намерением (Propaganda Intent), преследующим цели идеологического воздействия; и намерением фальсификации (Fabricated Intent), заключающимся в создании и распространении ложной информации. Классификация намерений проводилась на основе анализа содержания и контекста распространяемых дипфейков.

Анализ политических дипфейков выявил наличие выраженной “ненавистнической направленности” — контента, нацеленного на дискредитацию или очернение определенных идентифицируемых групп. Данный тип намерений, зафиксированный в исследуемых материалах, подчеркивает потенциал данной технологии для углубления существующих социальных разногласий и разжигания вражды. Особую обеспокоенность вызывает использование дипфейков для систематической дезинформации и травли, направленной на уязвимые слои населения, что может приводить к реальным негативным последствиям в обществе.

Анализ распространения политических дипфейков показал неравномерность намерений пользователей на различных платформах. Данные исследования свидетельствуют о том, что пользователи с правоориентированными взглядами распространяют дипфейки со скоростью 9.24%, в то время как для пользователей с левоориентированными взглядами этот показатель составляет 3.87%. Разница в скорости распространения указывает на потенциальную поляризацию контента и различную вовлеченность политических групп в распространение дезинформации посредством технологий дипфейков.

Анализ намерений, стоящих за дипфейками, показывает, что аккаунты с правосторонними взглядами чаще используют их для распространения клеветы и теорий заговора, в то время как общая доля дипфейков от разных политических групп примерно одинакова.
Анализ намерений, стоящих за дипфейками, показывает, что аккаунты с правосторонними взглядами чаще используют их для распространения клеветы и теорий заговора, в то время как общая доля дипфейков от разных политических групп примерно одинакова.

Последствия для Борьбы с Дезинформацией

Исследование подчеркивает необходимость перехода от простой маркировки потенциально ложного контента к проактивному выявлению и классификации намерений, стоящих за созданием дипфейков. Вместо фокусировки исключительно на фактической достоверности, анализ должен быть направлен на определение цели создания видео или изображения — является ли она клеветнической, разжигающей ненависть, или направлена на распространение теорий заговора. Такой подход позволяет предотвратить распространение вредоносного контента на ранней стадии, даже если его техническое исполнение не идеально. Выявление намерения, а не только подделки, становится ключевым элементом эффективной борьбы с дезинформацией и защиты информационного пространства.

Социальные сети сталкиваются с необходимостью разработки стратегий вмешательства, направленных не столько на само наличие дипфейков, сколько на выявление и нейтрализацию злонамеренных намерений, стоящих за их созданием. Приоритетным направлением представляется борьба с контентом, используемым для клеветы, разжигания ненависти или распространения теорий заговора, однако эта работа требует деликатного подхода, обеспечивающего уважение к свободе выражения мнений. Платформы должны стремиться к балансу между защитой пользователей от вредоносного воздействия и сохранением возможности для открытого и законного обмена информацией, что предполагает разработку четких и прозрачных правил модерации, а также механизмов для обжалования решений.

Перспективные исследования должны быть направлены на создание более надёжных и прозрачных моделей искусственного интеллекта, способных классифицировать намерения, стоящие за созданием дипфейков. Особое внимание следует уделить разработке алгоритмов, не только определяющих подлинность контента, но и выявляющих злонамеренные цели — будь то клевета, разжигание ненависти или распространение теорий заговора. Параллельно необходимо разрабатывать стратегии просвещения общественности, обучая граждан критическому мышлению и методам распознавания дипфейков, что позволит повысить их устойчивость к дезинформации и манипуляциям. Такой комплексный подход, сочетающий технологические инновации и образовательные инициативы, представляется ключевым для эффективной борьбы с распространением вредоносного контента.

Несмотря на то, что дипфейки составляют 5.86% всего контента в социальной сети X, их общая доля просмотров составляет лишь 0.12%. Данный факт указывает на ограниченный текущий охват подобных материалов. Тем не менее, исследователи подчеркивают, что это не является поводом для ослабления бдительности. Ограниченная видимость сегодня не гарантирует низкой распространенности в будущем, особенно учитывая потенциал для быстрого распространения и усиления воздействия манипулятивных материалов. Необходим постоянный мониторинг и разработка эффективных стратегий противодействия, чтобы предотвратить возможные негативные последствия, связанные с распространением дипфейков, и защитить информационное пространство от дезинформации.

Анализ количества просмотров показывает, что дипфейки аполитичного характера, как правило, получают значительно больше просмотров, чем политические, что указывает на разную степень их распространения и вовлеченности аудитории.
Анализ количества просмотров показывает, что дипфейки аполитичного характера, как правило, получают значительно больше просмотров, чем политические, что указывает на разную степень их распространения и вовлеченности аудитории.

Исследование показывает, что распространение дипфейков во время выборов 2025 года в Канаде оказалось ограниченным, в основном концентрируясь на малоизвестных аккаунтах. Этот факт подчеркивает, что сложность создания и распространения подобных материалов не всегда гарантирует их значительное влияние на общественное мнение. Как заметил Брайан Керниган: «Простота — высшая степень утонченности». Иными словами, попытки манипулировать информацией через сложные технологии могут оказаться менее эффективными, чем четкая и понятная коммуникация. Анализ показывает, что большинство обнаруженных дипфейков были безвредными или не имели политической направленности, что говорит о несоответствии между потенциальной угрозой и реальным воздействием.

Куда же дальше?

Настоящее исследование выявило ограниченный масштаб влияния дипфейков на исход канадских выборов 2025 года. Однако, скромность результатов не должна порождать самодовольства. Иллюзия, что проблема “саморегулируется” за счет низкой видимости и тривиальности контента, опасна. Не стоит забывать: отсутствие видимого эффекта сегодня не гарантирует его отсутствия завтра, особенно учитывая экспоненциальный рост вычислительных мощностей и совершенствование алгоритмов генерации.

Необходимо сместить фокус с обнаружения уже созданных дипфейков на профилактику их создания и распространения. Разработка более эффективных методов атрибуции контента, позволяющих установить происхождение медиафайлов, представляется задачей более фундаментальной. И дело не только в технологиях, но и в изменении общественного восприятия: необходимо культивировать критическое мышление и недоверие к любой информации, не прошедшей независимую проверку.

В конечном счете, настоящая сложность заключается не в коде, а в человеческой психологии. Попытки создать “идеальный детектор” обречены на неудачу, если не будут сопровождаться усилиями по воспитанию скептицизма и ответственности у потребителей информации. Совершенство не в количестве алгоритмов, а в исчезновении потребности в них.


Оригинал статьи: https://arxiv.org/pdf/2512.13915.pdf

Связаться с автором: https://www.linkedin.com/in/avetisyan/

Смотрите также:

2025-12-17 21:59