Российская дезинформация и черная пропаганда. Потенциальное применение ядерного оружия в Украине

Российская дезинформация и черная пропаганда. Потенциальное применение ядерного оружия в Украине

Цель данной работы — выявить в румынском веб-пространстве российские нарративы, распространяемые через социальные сети, связанные с войной на Украине и, как следствие, с намеренным или случайным применением ядерного оружия в этом контексте.

Основным методом сбора данных для этого анализа является использование веб-скреперов. Этот метод позволяет собрать значительный объем релевантных данных о пользователях, страницах, группах и постах на упомянутых платформах социальных медиа. Применение методов оставалось в основном одинаковым на обеих платформах, но в Facebook скреперы применялись и в группах.

Роль социальных сетей в распространении информации

С точки зрения процесса распространения информации, социальные сети значительно отличаются от традиционных медиаплатформ, таких как общественное телевидение и радио. В частности, социальные сети привлекают большую аудиторию по сравнению с традиционными средствами массовой информации, способствуя широкому взаимодействию между потребителями и, как следствие, обеспечивая массовую коммуникацию в глобальном масштабе. В то же время онлайн-активность, особенно в случае с социальными сетями, способствует созданию сообществ, снижая затраты на коммуникацию.

Потребление новостей и информации в значительной степени зависит от предпочтений пользователей избирательно получать информацию, соответствующую их собственным политическим взглядам. Что касается информации, которую люди получают в социальных сетях, то она во многом определяется их социальными связями (например, друзья, подписчики). Просматривая эти платформы, пользователи получают новости, представленные с определенной степенью социального одобрения. Социальное одобрение влияет на вероятность того, что пользователь будет взаимодействовать с представленной информацией. Люди используют восприятие, взаимодействие и реакцию других пользователей в своей социальной сети, чтобы определить достоверность информации.

В социальных сетях существует динамика, при которой достоверность информации связана с ее популярностью (степенью взаимодействия, выраженной в лайках, комментариях). В частности, существует прямая зависимость между популярностью информации в социальных сетях и воспринимаемой правдивостью информации. Частое освещение какой-либо идеи, зачастую из различных источников, повышает вероятность того, что эта информация будет воспринята и повторена. Другими словами, у людей формируются предпочтения в отношении стимулов, которым они часто подвергаются. Именно поэтому кампании по дезинформации обычно используют перегрузку контентом, использование хэштегов и ботов (в данном случае поддельных аккаунтов, которые взаимодействуют с постами и контентом с потенциальной целью повышения доверия к представленной информации).

Анализ релевантных постов на платформе TikTok

С помощью веб-скрепера на TikTok было обнаружено 1191 посты, содержащее хотя бы один из соответствующих хэштегов. Поскольку TikTok не устанавливает ограничений на количество используемых хэштегов, в постах было до 30 хэштегов. По этой причине количество анализируемых хэштегов было ограничено 10 лучшими для каждого поста. Хэштег «#nuclear» встречался в 912 из 1191 проанализированных постов. Он появлялся преимущественно в качестве третьего хэштега по порядку в формате #hashtag1; #hashtag2; #nuclear. Реже всего он появлялся в качестве десятого хэштега. После сбора данных соответствующие посты были проанализированы вручную.

Посты, сняты в TikTok, анализировались в порядке возрастания, начиная с наименее распространенного хэштега и заканчивая наиболее распространенным. Наименее распространенным хэштегом был «#nuclearaccident», который встречался только в 6 постах. Однако половина постов, связанных с этим хэштегом, была признана не имеющей отношения к теме исследования и поэтому была удалена. Следующий хэштег, «#nuclearattack», был идентифицирован 23 раза. Содержание постов под этим хэштегом в основном сводилось к представлению потенциальных последствий ядерной атаки и перечислению возможных мер предосторожности. Уровень вовлеченности этого хэштега был относительно скромным. Важно подчеркнуть, что данное исследование нацелено исключительно на контент, предназначенный для румынской аудитории, поэтому контент на других языках в анализе не рассматривался.

Следующим анализируемым термином стала «ядерная война» (#razboinuclear). Посты с этим термином демонстрируют значительно более высокий уровень вовлеченности, характеризующийся увеличением количества комментариев и лайков, по сравнению с другими хэштегами. Такой высокий уровень вовлеченности способствует более тщательному анализу комментариев, сопровождающих этих постах. При взаимодействии с постами, выявленными в ходе поиска, становится очевидным, что в комментариях обсуждаются как конспирологические, так и религиозные темы.

Хэштег «Запорожье» был идентифицирован в 236 постах, занимая в подавляющем большинстве случаев второе место в списке хэштегов, в постах где он упоминался. Посты с проукраинским контентом, связанные с этим хэштегом, получают больше негативных реакций пользователей и имеют более низкую вовлеченность, чем пророссийские посты. После первоначального сбора данных на TikTok, комплексный анализ хэштега «ядерный» не проводился. Это решение было обусловлено общим характером термина «ядерный», который привел к получению значительного объема данных, выходящего за рамки исследования.

Несмотря на то что термин «ядерный» оказался самым распространенным хэштегом, его релевантность наблюдалась в основном в сочетании с другими терминами. Следовательно, он перестал быть центральным элементом анализа. Ограничение метода сбора данных проявляется в сложности выделения релевантного контента при сборе данных методом скрапинга. Например, присутствие термина «ядерный» в нескольких языках привело к тому, что он был включен в посты, которые не вошли в сферу анализа.

С помощью веб-скрепера на TikTok было обнаружено 1191 постах, содержащее хотя бы один из соответствующих хэштегов. Поскольку TikTok не устанавливает ограничений на количество используемых хэштегов, в постах было до 30 хэштегов. По этой причине количество анализируемых хэштегов было ограничено 10 лучшими для каждого поста. Хэштег «#nuclear» встречался в 912 из 1191 проанализированных постах. Он появлялся преимущественно в качестве третьего хэштега по порядку в формате #hashtag1; #hashtag2; #nuclear. Реже всего он появлялся в качестве десятого хэштега. После сбора данных соответствующие посты были проанализированы вручную.

Анализ релевантных постов на платформе Facebook

Facebook, как и большинство других социальных сетей, предоставляет пользователям несколько способов непосредственного взаимодействия с контентом, с которым они сталкиваются. Например, опции «нравится», «комментарий» и «поделиться» имеют разные атрибуты. Лайк представляет собой положительную обратную связь с контентом, в то время как поделиться может выражать желание увеличить видимость найденной информации. Поделиться не обязательно означает, что пользователь положительно отнесся к контенту; постом можно поделиться, даже если человек с ним не согласен. Тем не менее, действие по обмену увеличивает охват этого поста. Комментарии отражают мнение пользователя о контенте и могут быть как негативными, так и позитивными.

Данные, полученные из постов Facebook с хэштегами, дали незначительные результаты. Большинство постов, содержащих хэштег «nuclear», оказались не относящимися к теме, что подчеркивает широкую природу этого термина. Чтобы упростить процесс сбора данных, поиск был ограничен только тремя из пяти первоначальных хэштегов. Однако даже при таком ограничении метод не дал существенных релевантных данных по Facebook. Это наблюдение может говорить о нескольких вещах: оно может указывать на различия в распространении информации между Facebook и TikTok, или может означать, что TikTok служит платформой, на которой легче распространять ложную информацию. В связи с этим было сочтено необходимым разработать отдельный подход к сбору данных на платформе Facebook.

Группы Facebook — это самые простые каналы распространения контента и зачастую одни из самых эффективных методов распространения информации и контента. Существует несколько причин, по которым группы Facebook являются благоприятной средой для распространения дезинформации. Во-первых, группы Facebook обычно объединяют единомышленников, разделяющих схожие убеждения, идеологию или интересы. Это может привести к созданию так называемых «эхо-камер», где дезинформация может быстро распространяться без проверки, так как участники часто подкрепляют свои взгляды, не изучая содержание. По сути, люди тяготеют к информации, которая соответствует их уже сложившимся убеждениям.

Информация практически не модерируется, что позволяет распространяться слухам, дезинформации и теориям заговора. Некоторые группы на Facebook функционируют как закрытые или частные сообщества, эффективно ограничивая внешнее наблюдение. В таких закрытых группах дезинформация может распространяться бесконтрольно, без внешнего вмешательства или механизмов коррекции.

Чтобы собрать релевантные данные об информации, присутствующей в группах, был использован скрепер для сбора постов из шести групп, в которых была выявлена ложная информация. В результате скрапинга было собрано 597 постов из выбранных групп. Выбор этих групп был обусловлен предыдущим наблюдением, в ходе которого были выявлены посты, содержащие дезинформацию и теории заговора. Результаты анализа были проанализированы, а посты, которые не вписывались в период анализа, были удалены, в результате чего осталось 96 постов. Из 96 постов не было выявлено значительного количества релевантного контента, поэтому были проанализированы две другие группы на Facebook, основной темой которых была не конспирологическая, а скорее пророссийская тематика. В результате сбора данных было получено 70 постов из этих двух групп.

Этот шаг был важен для сужения результатов. Вовлеченность в выявленные посты была довольно низкой по сравнению с вовлеченностью, присутствующей на TikTok, но выше, чем в ранее проанализированных группах. Один из первых выводов, сделанных на основе изучения этих постов, — благоприятное отношение к потенциально ядерным действиям, приписываемым России. Например, обсуждения российского ядерного оружия вызывают более позитивную реакцию и взаимодействие по сравнению с теми, которые касаются других стран, например США. Кроме того, в этих группах заметно присутствие русскоязычного контента.

Интересный аспект заключается в том, что в анализируемых группах, где было выявлено наличие ложной информации, контент генерируется преимущественно ограниченным числом пользователей, независимо от размера группы. Кроме того, реакция участников в этих группах значительно ниже, особенно в сравнении с количеством участников в группе. Это говорит о том, что взаимодействие с ложной информацией в Facebook, проявляющееся в рассмотренных публичных группах, относительно невелико. Точнее, содержание ложной информации велико, но пользователи не взаимодействуют с этими постами напрямую.

Этот вывод можно объяснить несколькими факторами. Либо дезинформация происходит в частных и закрытых группах, доступ к которым ограничен, либо дезинформация перекочевала из Facebook в другие социальные сети. Из этих двух объяснений второе более вероятно. При первоначальной проверке различных хэштегов на TikTok было выявлено гораздо большее количество дезинформационных постов, чем на Facebook.

Наконец, использование метода прямого поиска релевантных постов в Facebook дало более устойчивые результаты. В частности, в отличие от постов, которые ранее были отобраны на основе хэштегов, уровень вовлеченности этих постов гораздо выше. Таким образом, можно еще раз убедиться, что хэштеги не так широко используются на Facebook для эффективного распространения информации. В то же время вовлеченность этих постов выше, чем в анализируемых публичных группах. Однако неясно, выше ли вовлеченность в посты в частных группах. Было выявлено несколько различных учетных записей, размещающих идентичный контент. Также были выявлены комментарии разных пользователей, размещавших идентичные посты в разных постах.

Сравнение между двумя платформами

Алгоритм TikTok предназначен для настройки потоков контента на основе предпочтений и поведения пользователей. Этот алгоритм может привести к созданию информационных пузырей или эхо-камер и усилению дезинформационного контента. Если пользователь взаимодействует с материалами, содержащими ложную информацию или заговоры, алгоритм может продолжать рекомендовать аналогичный контент, чтобы поддерживать вовлеченность и интерес пользователей. Плохая модерация контента — еще один фактор, который может объяснить большой объем ложной информации на TikTok.

Была замечена связь между распространителями дезинформации и их очевидным уровнем религиозности. Многие аккаунты, распространяющие ложную информацию и заговоры на обеих платформах, демонстрируют высокую степень религиозности в своих профилях. Эта степень проявляется в количестве используемых или создаваемых религиозных материалов или религиозной лексики. Это может говорить о том, что люди с высокой степенью религиозности с большей вероятностью примут и распространят ложную информацию или заговоры, которые соответствуют их собственным религиозным убеждениям. Также было замечено, что религиозный язык часто используется для повышения легитимности и эмоционального воздействия дезинформации.

В анализе также отмечается использование языка заговоров для манипулирования общественным мнением и формирования чувства недоверия. Зачастую дезинформация в социальных сетях призвана вызвать сильную эмоциональную реакцию и способствовать разделению и поляризации общества. Такие посты могут создавать напряженность и конфликты, усиливать существующие страхи и предрассудки. Одним из таких религиозных посланий, которое, по-видимому, вписывается в этот контекст, является «апокалипсис».

Идентифицированные нарративы

В ходе анализа постов на этих двух платформах, было выявлено несколько нарративов, пытающихся снять с России ответственность за войну на Украине и возможные ядерные инциденты. Эти нарративы часто усиливаются конспирологическим и религиозным подтекстом, способствуя поляризации общественного мнения.

Основные выявленные нарративы:

1. Уменьшение ответственности России:

Обвинение США и НАТО: Посты часто обвиняют США и НАТО в конфликте на Украине, представляя их в качестве главных агрессоров. Россия изображается как жертва или как актер, действующий в целях самообороны.

Российское ядерное оружие: Обсуждение российского ядерного оружия вызывает положительную реакцию и взаимодействие, что свидетельствует о более благоприятном отношении к нему по сравнению с оружием других стран, например США.

2. Теории заговора и Новый мировой порядок:

Конспирологические нарративы: Существуют теории о глобальном сатанинском заговоре и попытках «Нового мирового порядка» контролировать мир. Эти теории сочетают в себе религиозный и пророссийский подтекст. В частности, Россия является одной из стран, борющихся с этими оккультными силами.

3. Религия и оправдание действий России:

Бог на стороне России: есть посты, в которых утверждается, что Бог поддерживает Россию, представляя ее как защитницу христианского мира. Война рассматривается как борьба с глобальным злом.

Апокалипсис: в некоторых постах используется религиозная лексика, позволяющая предположить, что происходящие события являются частью апокалиптического сценария, что усиливает эмоциональное воздействие поста. В то же время значительно преуменьшается участие России.

4. Риск ядерной войны:

Призывы прекратить поддержку Украины: Предполагается, что поддержка Украины со стороны США и НАТО может спровоцировать ядерную войну. Аргумент исходит из предпосылки, что Россия применит ядерное оружие только в порядке самообороны против американского нападения.

Эволюция нарративов:

Аккаунты и распространение нарративов:

Множественные аккаунты: были выявлены аккаунты, публикующие одинаковые посты на разных платформах с использованием разных хэштегов. Эти аккаунты часто сочетают религиозные, конспирологические и пророссийские пропагандистские нарративы.

Эволюция постов:

Оправдание применения ядерного оружия: в ранних постах высказывалось предположение, что Россия может применить ядерное оружие для защиты аннексированных территорий в Украине, представляя это как оборонительную меру.

Украинская пропаганда и участие НАТО: некоторые посты предполагают, что Украина распространяет пропаганду с целью подстрекательства к участию в НАТО, позиционируя Россию как неохотного участника и оправдывая опасения по поводу ядерной атаки, организованной Украиной.

Нападение на дамбу: в другом нарративе предполагается, что Украина атаковала дамбу, подающую воду на атомную электростанцию, обвиняя в нападении Россию и приписывая ей внешние структуры, контролирующие Украину из-за кулис.

Все эти нарративы объединяет общий посыл: снижение ответственности России в случае ядерного инцидента. Эти посты используются для воздействия на общественное мнение, вызывая сильную эмоциональную реакцию и усиливая раскол и поляризацию в обществе.

Concurs eseuri