Дезинформация как инструмент и составная часть информационного противоборства Запада

А. В. Федоров

Федоров Александр Валентинович, Московский государственный технический университет им. Н. Э. Баумана, 2-я Бауманская ул., 5, стр. 1 Москва, 105005, Россия.
Государственный академический университет гуманитарных наук, Россия Москва 119049 Мароновкий пер. д. 26
Эл. почта: fedorov-av@bmstu.ru. ORCID 0000-0002-0698-4480.

Аннотация. В условиях глобализации коммуникаций и широкой доступности социальных сетей дезинформация, взятая на вооружение Западом в рамках ведения им информационного противоборства с неугодными странами в целях нарушения общественной стабильности, оказания влияния на процессы социального и политического управления, стимулирования протестных движений и общественных беспорядков, стала серьезным вызовом национальной и международной безопасности. Именно через разрушающее влияние на национальное сознание, культуру и образование были подготовлены и осуществлены «цветные революции». Конкретным проявлением такой линии Запада стала нацификация населения Украины, закрепленная фейковыми обещаниями дивидендов от победы над Россией. Результатом 30-летнего дезинформационного воздействия на сознание украинцев, формирования условий для расцвета политики «постправды» стала готовность населения страны воспринимать ульташовинизм за стремление к «независимости», а антирусскость — за «европейский путь развития».
Нормативные правовые инструменты противодействия распространению дезинформации стали вводиться в национальное и международное право в начале текущего столетия. Межправительственным соглашением ШОС 2009 г. дезинформация названа в ряду угроз международной безопасности. Запад, усматривающий в расширении практики дезинформации признаки «дисфункциональности демократии», также начал борьбу с ней, приняв Европейский Кодекс практик в отношении дезинформации и поддержав профильную резолюцию 76-й сессии ГА ООН. Однако эти шаги стали не более чем декларациями: поток дезинформации нарастает и принимаемые меры не действуют.

Ключевые слова: дезинформация, общественное сознание, информационное пространство, информационное противоборство, информационная вой­на, информационное оружие, СМИ, социальные сети, информационные ресурсы, пропаганда, фейк-ньюс.

Несмотря на быстро растущее количество публикаций о дезинформации как явлении и практике, имеется на удивление мало работ, раскрывающих ее сущность, место в информационном противоборстве и социально-­политические последствия ее воздействия. Обращаясь к этой проблеме, автор предпринимает попытку показать, что дезинформация как отдельный конструкт, используемый как инструмент деструктивных международных отношений, катализирует информационное противоборство и, стимулируя политический цинизм, усиливает его воздействие, а также, формируя нужную агрессору эксформацию, повышает действенность информационно-­психологических акций и операций. В силу особенностей момента эти характеристики дезинформации в первую очередь следует отнести к политике и информационному противоборству коллективного Запада с его «правовой» аргументацией, основанной на известном «highly likely». Российская международно-­пропагандистская деятельность строится иначе и опирается на то, что, как сказал С. В. Лавров во время пресс-­конференции по итогам переговоров с главой МИД Вьетнама в Ханое 6 июля 2022 г., «мы всегда говорим то, что думаем, и готовы за эти свои слова отвечать и объяснять нашу позицию».

«Постправда» и дезинформация

В политических публикациях все чаще встречаются ссылки на то, что в США и других западных государствах в настоящее время преобладающей становится политика «постправды», «в рамках которой объективные факты оказывают меньшее влияние на формирование общественного мнения, чем апелляции к эмоциям и личным убеждениям», и «правильная» направленность публичного дискурса обеспечивается не историко-­политологическим анализом, а 24-часовым новостным циклом на каналах ангажированных СМИ и всепроникающих социальных сетей (Keane, 2021). При этом, однако, следует признать, что этот новый политический концепт, по сути, не более чем эвфемизм поддерживаемой государствами коллективного Запада политической пропаганды, основным средством и методом которой стала дезинформация, на что явно указывается в оксфордском определении1. Провозглашение «постправды» словом года именно в 2016 г., когда обвинения России во вмешательстве в социальные процессы США достигли уровня, позволившего Б. Обаме подписать указ, вводящий односторонние санкции за якобы множественные нарушения Москвой правил поведения в информационном пространстве, это подтверждает. Примечательно: упомянутые правила были разработаны Вашингтоном, публично объявлены самим Обамой, одобрены проамериканскими G7 и G20, но не нормативированы даже в правовом поле США.

Формально дезинформация рассматривается западной политологией как крайняя форма пропаганды, представляющая собой вынесение в публичную сферу под видом достоверных заведомо ложных сведений и распространение их намеренно в целях обмана общественного мнения и кругов, задействованных в системе принятия государственных решений (Ireton, Posetti, 2018). Этот смысл закреплен во всех основных англоязычных словарях. Она также известна как «черная пропаганда» и часто ассоциируется с понятием фальшивых новостей — фейков, которые на Западе определяют как сфабрикованную информацию, имитирующую новостные СМИ по форме, но не по организационному процессу или намерению. О дезинформации можно с уверенностью говорить в тех случаях, когда использование методов информационного противоборства (ИП)2 направлено не против информационных систем противника, а непосредственно против восприятия действительности его гражданами или социальными группами. Сегодня мало кто сомневается в высокой степени присутствия дезинформации и недостоверной информации в СМИ: фейковые новости появляются там в самых разнообразных формах — от сатиры и пародий до откровенной лжи. Однако пока не ясно, в какой степени такая пропаганда влияет на политические установки в обществе потенциального противника, а следовательно, и на политические результаты информационного противоборства. И в этом смысле политика постправды стала удачным каналом ее доведения до политикоформирующих кругов и общественного сознания.

Общественное сознание — основной объект дезинформации цифровой эры

В современном политическом процессе значение общественного сознания как объекта воздействия в западном видении ИП существенно возросло. Направленное информационное воздействие на общественное сознание в политических целях стало основой межгосударственного противоборства, в частности военных информационно-­психологических операций как тактического, так и стратегического уровня. В отношении политического и тем более военного противника оно всегда носит наступательный характер. «Информация, — поясняет Джозеф Най (Nye, 2011), — влияет на власть, и правительства всех видов понимают, что их контроль будет ослабевать по мере того, как информационные технологии постепенно распространяются, а затраты на их применение продолжают снижаться». Выводом из приведенного рассуждения может стать не только перифраз известного бэконовского изречения, звучащего теперь как «информация — сила», но и то, что на фоне снижения зависимости информационного воздействия от дешевеющих и потому все более доступных технологий распространения информации относительно возрастает роль контекста, в котором она воспринимается получателем (целевой аудиторией). Простейшим способом контекстуализации информации может быть сопровождение ее соответствующей поставленной перед СМИ или другим органом пропаганды цели эксформацией3 (Федоров, 2006). Как показывает западная практика, эта задача информационного противоборства эффективно решается в том числе средствами дезинформации.

Феномен дезинформации посредством СМИ существовал с момента их появления, однако возможности социальных платформ информационных сетей значительно расширили сферы его использования, масштабы распространения и охват целевой аудитории. В результате усилий военных и PR-специалистов социальный инструментарий интернет-­пространства стал эффективным средством контроля формирования мировоззрения большинства населения, что и сделало широко практикуемое интернет-­ресурсами в США дезинформирование населения фундаментальной проблемой современного западного общества (Susarla, 2018). Новую и серьезную опасность представляют дезинформационные кампании, использующие социальные сети. Они служат катализатором беспорядков и влияют на процессы в обществе непосредственно через сознание и миропонимание индивида, стимулируя тех, кто будет создавать новые нарративы, и, эксплуатируя их, манипулировать массами. Кроме того, социальные сети и блогосфера используются как полигон для новых методик информационно-­психологического воздействия на большие группы населения, в полной мере реализуя претензии создателей информационного оружия на название «weapon of mass effect». При этом в основе западных подходов в этой сфере лежит аксиоматически неизменная мантра: дезинформация — это оружие авторитарных режимов, использующих социальные сети, другие информационные онлайн-­платформы и традиционные СМИ, чтобы попытаться сформировать глобальные и внутренние нарративы, посеять хаос и неразбериху в демократиях и подорвать демократические процессы (Information Manipulation, 2022). В то же время по оценкам специалистов в США проблема внутренней дезинформации превалирует даже над «информационными угрозами» России и Китая (Bradshaw…, 2020).

Однако, если великие вирусологи прошлого, испытав на себе и своих близких вновь открытую заразу, другим передавали лекарство от нее, западники, не найдя противоядия, решили расширить эксперимент, применив найденное оружие — дезинформацию — к потенциальному противнику, странам, не относимым ими к демократиям, списывая на них все издержки. Существенным подспорьем для ведущегося коллективным Западом информационного противоборства стала всеобщая цифровизация социальных отношений и контролируемое Вашингтоном продвижение Интернета, соцсетей и других социально ориентированных программных продуктов как основы социальной коммуникации.

Между тем, по состоянию на январь 2022 г. в мире насчитывалось 4,62 млрд. участников соцсетей, что составляет 58,4% населения планеты. За 2021 г. их число выросло более чем на 10% (Digital 2022). Проводимое рядовым обывателем в социальных сетях время в среднем составляет около 2,5 часов в день. Согласно отчету Института Рейтера по изучению журналистики при Оксфордском университете (Reuters Institute for the Study of Journalism, University of Oxford), в государствах Евросоюза 54% владельцев электронных устройств просматривают новости только с их использованием, в некоторых странах это количество достигает 80%; 66% получают новостной контент только из соцсетей и мессенджеров (Newman, 2021). Понятно, что любое информационное воздействие на такую аудиторию в рамках ИП носит массовый характер.

Стремительно снижающееся доверие к официальным источникам стимулирует восприимчивость общества к соцсетям и блогосфере, пока считающимся независимыми, а значит и к распространяемым в них сведениям, что активно поддерживается IT-гигантами и глобальными интернет-­структурами4. Социальные сети оказывают воздействие на поведенческие привычки пользователей, стереотипы их взаимодействия с окружением, отношение к политическим и иным событиям, мировоззрение и образование. При этом применяемые программы обработки данных и определения приоритетов подачи сведений играют все более существенную роль в установлении пределов доступа граждан к информации.

Одной из важных возможностей, предоставляемых Интернетом своим пользователям, изначально была анонимность, обещавшая защиту приватного пространства индивида от взглядов других пользователей. Социальные сети и мессенджеры лишили рядового пользователя этого уровня приватности (Gavison, 1980). «В современной ситуации обсуждения приватности и конфиденциальности чаще являются объектом политических спекуляций или публичных дискуссий… не менее, а возможно, и более актуальными являются психологические аспекты взаимодействия индивидов друг с другом под влиянием трансформаций границ приватного и публичного, привносимых цифровизацией» (Труфанова, 2021). Появились новые, зачастую не понятные обычному индивиду проблемы, в частности, проблема конфиденциальности данных в цифровых взаимодействиях, которая носит не столько политико-­правовой, сколько технический характер. Открывается широчайшее поле возможностей для направленного распространения «нужной» информации: какой бы ложной она ни была, она обязательно дойдет до адресата.

Разработчики технологий дезинформации в сетевом пространстве учли и другую психологическую особенность человеческой памяти — веру в ранее воспринятый контент даже после того, как тот будет официально опровергнут. Пользователи остаются нечувствительными к опровержениям, если те заставляют изменить уже сложившиеся взгляды, следствием чего стало появление в соцсетях «эхо-камер»5. В то же время формируемый в общественном сознании политикой «постправды» конфликт между исторической наукой с ее, как считается, связью с государством и исторической памятью, якобы свободной от этой связи, приводит к тому, что личное мнение источника вызывает больше доверия, даже когда оно не имеет никакого объективного подкрепления, а сам источник адресату не известен.

В итоге сведения, почерпнутые из Всемирной паутины, принимаются как истинные, даже если содержат заведомо бездоказательные утверждения. Это усиливает потенциал дезинформации как средства нарушения психологического и идеологического единства общества государства-­противника и дает возможность спецслужбам различных стран создавать непримиримые замкнутые сообщества по типу упомянутых «эхо-камер», исключающие консолидацию пользователей соцсетей в целом, и применять сетевые технологии влияния на общественное сознание. И здесь неоценим контроль над социальными сетями, мониторинг и фильтрация информации.

Нужна ли дезинформация бизнесу?

Еще одна сложность, выделяемая в первую очередь американскими исследователями, заключается в том, что расовые, гендерные и иные предубеждения руководителей и сотрудников социальных сетей и платформ неизбежно влияют на их информационную политику и, в частности, находят свое отражение в алгоритмах модерирования контента, усугубляя проблему дезориентирования. Этот недостаток не удалось устранить даже после создания в мессенджерах механизмов выдвижения на передний план материалов из наиболее авторитетных источников и маркировки отдельных сообщений как ошибочных, ложных или же фальшивых (Elias, 2021). Например, информация по медицинской проблематике может быть полезна лишь людям с определенным объемом знаний в данной области, количество которых по сравнению с общим числом пользователей непропорционально мало. В то же время сетевая платформа YouTube размещает миллионы видеороликов, связанных с вопросами здравоохранения, поэтому по разным оценкам до 75% американских граждан в первоочередном порядке обращаются к ней в поисках соответствующих рекомендаций (Susarla, 2020), получая одновременно рекламную продукцию, в том числе несущую политизированный контент.

В целях распространения дезинформации в рамках ИП широко используются также технологии «ботов», «троллей», «дипфейков»6, «SUMA»7. Несмотря на то, что такие методы нарушают правила интернет-­сообщества, контролирующие соцсети IT-гиганты этого «не видят».

Крупные медиакомпании, в частности, Meta8, не только активно распространяют, но и финансируют дезинформацию (How Facebook…, 2021). Выявлены тысячи «кликбейт-ферм» (clickbait farms)9 в основном в странах, где выплаты «Facebook10» обеспечивают более крупный и стабильный источник дохода, чем другая работа. Такие «фермы» выпускают одни и те же видеоролики, выдавая их за прямые трансляции, заводят учетные записи в «Instagram11», которые монетизируют напрямую или используют для увеличения трафика на свои сайты. Так, YouTube позволяет «недобросовестным игрокам» применять свою платформу в качестве средства манипулирования и эксплуатации пользователей, а также для незаконного сбора средств (Milmo, 2022).

Исследования показали, что распространенные масштабные языковые модели для искусственного интеллекта могут превратиться в инструмент активной пропаганды, варьируемой под целевые аудитории. Их результаты опубликованы в Корнелльском университете (Cornell University) (Bagdasaryan, 2021), Миддлберийском институте международных исследований в Монтерее (Middlebury Institute of International Studies, Monterey) (McGuffie, Newhouse, 2020), Мэрилендском университете (University of Maryland) (Ranade…, 2021) и других исследовательских центрах США. Это открывает возможность для появления «пропаганды как услуги» (propaganda-as-a-service) (Wiggers, 2021). Выяснилось, что контент на языках национальных меньшинств, например, в случае с США на испанском, оказывает более сильное негативное влияние на пользователей, чем на языке титульной нации (в США — английском) (Valencia, 2021). При этом социальные платформы чаще распространяют подобную продукцию в расчете именно на такие недоминирующие группы населения.

Из выпущенного в 2021 г. корпорацией «Meta Platforms» отчета об угрозах, связанных с операциями по оказанию влияния на онлайн-­платформы в период с 2017 по 2020 г., в котором эти операции определены как «скоординированные усилия по манипулированию общественными дебатами или их искажению для достижения стратегической цели», следует, что ее специалисты были в той или иной степени информированы о более чем 150 скоординированных кампаниях по оказанию такого влияния более чем в 50 странах. Большинство операций проводилось представителями военных ведомств и спецслужб (Threat Report, 2021).

Кроме того, в 2021 г. «Meta» заблокировала порядка 150 учетных записей в «Facebook» и «Instagram», управляемых рядом компаний, предоставляющих услуги «шпионажа по найму» (surveillance-for-hire). В общей сложности корпорации было известно о более чем 1,5 тыс. управляемых этими организациями фейковых аккаунтов, которые использовались для атак на 48 тыс. пользователей в 100 странах (Kirchgaessner, Safi, 2021).

Таким образом, бизнес на Западе не свидетель, а активный участник дезинформации не только экономического, но и социального и даже политического толка.

Основной актор дезинформации — государство, а цель — предотвращение политических рисков

В последние годы во всех государствах Запада большое внимание уделяется изучению стратегий и исследованиям в области инструментов влияния на общественное мнение пользователей социальных сетей в целях противодействия информационным угрозам политических конкурентов, террористических и экстремистских организаций и/или возможного использования в собственных операциях влияния.

Во многих государствах Запада созданы специальные киберструктуры, проводящие кампании «компьютерной пропаганды». Их регулярно используют для подавления политической активности и свободы прессы. «Политические боты» формируют большое количество ложных политических сообщений, усиливая и разжигая ненависть. Отмечается рост использования ими услуг «дезинформации по найму».

Используя финансирование правительства и политических партий, «киберструктуры» частных компаний все чаще нанимают для распространения манипуляционных сообщений в сетевом пространстве или для того, чтобы «заглушить» другие сообщения в социальных сетях. Согласно исследованиям Оксфордского института Интернета (Oxford Internet Institute) такие частные «киберсилы» регулярно сопровождают организованные кампании по манипулированию общественным мнением в социальных сетях, используются для подавления политической активности и свободы прессы. В 2020 г. такие инциденты были отмечены в 81 стране, по сравнению с 21 страной, где они выявлены в период с 2018 по 2019 г., и только девятью такими случаями в период с 2016 по 2017 г. За 10 лет на контракты с этими фирмами было потрачено почти 60 млн. дол. (Bradshaw…, 2020).

Чем яснее люди осознают себя объектами лживой пропаганды, тем циничнее они подходят к демократическим механизмам, в первую очередь к эффективности институтов государства и, в частности, избирательной системы. Проведенные американскими специалистами в области коммуникации исследования по проблеме распространения фальшивых сведений в ходе выборов позволили их коллегам из Аризонского университета (University of Arizona) сделать три основных вывода (S Mo Jones-­Jang…, 2020).

Во-первых, социальные платформы, созданные изначально в целях объединения людей, на деле способствуют процессу разъединения общества. Позже были опубликованы данные, говорящие, что это обусловлено их чрезвычайной перенасыщенностью фальшивой информацией (Digital News Report, 2021).

Во-вторых, от дезинформации страдают и политики, и средства массовой информации, и электорат. Основная часть подобной продукции исходит от иностранных организаций и политически маргинальных групп, которые преследуют свои финансовые или идеологические цели.

В-третьих, даже люди, стремящиеся к получению достоверной и полной информации, не застрахованы от дезинформирования при ее получении. Пользователи социальных платформ, которые предпочитают самостоятельно, последовательно и осмысленно обрабатывать, структурировать и анализировать информацию, по мере освоения фальшивок становятся более циничными по отношению к политике, чем их менее опытные коллеги (Shyam, 2016).

По мнению специалиста в области государственной политики, средств массовой коммуникации и обработки информации Итана Цукермана12, на пространстве контролируемого Вашингтоном Интернета лживые утверждения стали неотъемлемой составной частью политического дискурса.

Наиболее распространенной стратегией для достижения своих политических целей оказалось использование метода «клеветнических кампаний» (smear cam­pa­igns) против политического оппонента (94% исследованных стран). В 90% государств обнаружили распространение партийной (pro-party propaganda) или проправительственной пропаганды (pro-government propaganda). Большинство американцев считают, что их политики, а также компании, работающие в соцсетях, распространяют дезинформацию в сетевом пространстве чаще, чем иностранные правительства (Bradshaw…, 2020).

Все это, по нашему мнению, может рассматриваться не только как оценка состояния сферы политической коммуникации, но и как иллюстрация общей характеристики современной политической ситуации, известной как «дисфункциональность демократии», проявляющейся на всех уровнях политического процесса и живо обсуждаемой как западными, так и отечественными политологами.

Особое внимание к международным конкурентным отношениям

Большое внимание такого рода работе уделяется в Пентагоне и спецслужбах США.

В апреле 2021 г. в Аппарате директора Национальной разведки США создан новый центр по якобы пресечению иностранного влияния — Foreign Malign Influence Center — FMIC (50 U. S. Code…, 2021). Задача центра — анализ действий России, Китая, Ирана и Северной Кореи по оказанию якобы злонамеренного влияния на американскую внутреннюю политику. Решение об учреждении данного органа было принято после заявлений официальных лиц и конгрессменов о росте в ближайшие годы усилий по иностранному влиянию на Соединенные Штаты (Matishak, 2021).

Схожие функции выполняет входящий в состав Госдепартамента Центр глобального взаимодействия (Global Engagement Center — GEC) (Washington seeks…, 2021).

Разработка комплекса инструментов, позволяющих выявлять новые виды иностранного влияния и оценивать вероятное воздействие кампаний дезинформации, поручена Агентству по кибербезопасности и защите инфраструктуры (Cybersecurity and Infrastructure Security Agency — CISA) при Министерстве внутренней безопасности (Department of Homeland Security — DHS). CISA также анализирует опыт прошлых операций иностранного влияния, чтобы определить целевую аудиторию и просчитать ее вероятную реакцию на информационные вбросы (Countering…, 2020). Эти работы, включая мониторинг социальных сетей, контролируются Национальным центром управления рисками (National Risk Management Center) и интегрированы в коммуникационные стратегии Агентства.

Кроме того, CISA активно расширяет сотрудничество с компаниями и специалистами, обладающими необходимыми компетенциями и опытом решения социально-­политических задач. Среди них IT-гиганты, которые могут создавать алгоритмы или модели отслеживания по конкретным темам, таким как выборы, произведен ли контент иностранным автором. Интерес также проявляется к разработкам моделей на основе данных, собранных на прошлых онлайн-­кампаниях, и анализу тенденций в области коммуникации и стратегий смягчения их последствий (Johnson, 2020).

Наряду с этим Пентагон выделяет значительные средства на исследования «инструментов национального влияния». В частности, ведомство интересует, как государства «вводят в заблуждение» других с помощью социальных сетей (FY21…, 2021). Представители Министерства обороны США неоднократно заявляли, что ведомству требуются специалисты и технологии обнаружения «кампаний влияния» и инструменты борьбы с ними, обосновывая это тем, что «некоторые злонамеренные государства используют социальные сети и специальные программы, чтобы распространять дезинформацию и оказывать влияние на людей». Для этого Пентагон финансирует научные исследования, которые помогают распознавать манипуляции информацией в целях воздействия на пользователей. Однако логично предположить что полученные в рамках программы сведения Вашингтон может применить не только для защиты, но и в целях влияния на массовое сознание.

С целью прогнозирования событий для предотвращения социальной нестабильности, международных конфликтов Агентство передовых исследований в сфере разведки (Intelligence Advanced Research Projects Activity — IARPA) разрабатывает программы анализа информации, поступающей в электронные СМИ и социальные сети. По оценкам специалистов, такие программы могут быть использованы для осуществления собственных операций (Goodman, 2021).

Военные организации для оказания прямого влияния на пользователей в социальных сетях функционируют в Великобритании. Среди них специальное подразделение «воинов Facebook» (77-я военная бригада), обладающих навыками проведения психологических операций и использования социальных сетей для противодействия информационным угрозам. Особое предпочтение при подборе кадров отдается военнослужащим, имеющим журналистскую подготовку, знающим иностранные языки и знакомым с социальными сетями (77th Brigade, 2022). По некоторым данным, правительство Великобритании покупало рекламу в российской социальной сети «ВКонтакте» для продвижения своей позиции по спецоперации Москвы по защите Донбасса среди русскоязычного населения (Malnick, 2022).

Нормативные правовые инструменты ограничения распространения дезинформации стали вводиться в национальное и международное право лишь в конце первой декады текущего столетия. Межправительственным соглашением ШОС 2009 г. о сотрудничестве в вопросах информационной безопасности дезинформация названа в ряду актуальных угроз международной безопасности. США и страны Европы также в последние годы акцентировали внимание своих законодателей на вопросах противодействия дезинформации. Однако при этом те не только не ставили вопрос о принятии всеобъемлющих решений, но сконцентрировались на защите своих политических интересов, нормативно закрепив в качестве источников угроз Россию, Китай, и другие «недемократические» страны.

Так, в начале 2022 г. Европейский парламент одобрил закон, направленный на ограничение использования персональных данных для таргетированной рекламы на территории Евросоюза. Ожидается, что новые правила вступят в силу в начале 2023 г. Впервые представленный в 2020 г. Закон о цифровых услугах (Digital Services Act — DSA) позволяет пользователям высказывать свое мнение о том, что они видят в Интернете (Deutsch, 2021). Он будет регулировать адресную рекламу и обяжет платформы удалять вредоносный с точки зрения европейских интересов контент, а также пресекать распространение сведений, трактуемых Еврокомиссией как дезинформация.

В марте 2022 г. правительство Великобритании представило в парламенте проект закона «О безопасности в Интернете» (Online Safety Bill), призванного повысить ответственность технологических компаний за удаление со своих платформ противозаконного контента, связанного с пропагандой терроризма или насилия, порнографией, агрессивным поведением в сети и сексуальным насилием над детьми (World-first online…, 2021). По мнению Министерства по делам культуры, СМИ и спорта Великобритании (Department for Digital, Culture, Media & Sport), новостной контент и пресса будут освобождены от регулирования. Крупнейшие платформы и их приложения должны будут ограничивать легальный, но вредный контент, об особенностях которого законодатели сообщат позже. Чуть ранее, 20 февраля 2022 г., Министр иностранных дел Великобритании Лиз Трасс объявила о намерении создать во вверенном ей ведомстве Центр по борьбе с российской дезинформацией. По ее словам, это будет «первый подобный центр со времен «холодной вой­ны»» (In the UK…, 2022).

В Германии распространение непроверенной информации ограничивается законом о мерах в отношении социальных сетей (NetzDG). Он также регулирует проявления вражды в сети: экстремистские высказывания, оскорбления представителей власти и призывы к насилию. В соответствии с законом соцсети должны блокировать противоправную информацию, а в случае необходимости — идти на диалог с госструктурами.

С правилами, действующими в Германии, перекликается принятый во Франции так называемый «Закон Авиа» («Avia law»). Согласно ему любые призывающие к ненависти материалы должны быть удалены с сайта в течение суток после соответствующего оповещения (France’s watered-down 2021). Невыполнение этого требования может привести к штрафам в размере до 1,25 млн. евро (Kayali, 2020). В октябре 2021 г. в структуре Генерального секретариата национальной обороны и безопасности (Secrétaire Général de la Défense et de la Securité Nationale) начала функционировать Служба мониторинга и защиты от иностранного цифрового вмешательства и борьбе с операциями по манипулированию информацией — Viginum13, уполномоченная осуществлять контроль и анализ интернет-­пространства для выявления направленных против фундаментальных интересов страны дезинформационных кампаний, проводимых иностранными государствами или неправительственными агентами. На его деятельность выделено из бюджета 12 млн. евро. Планировалось, что штат Viginum в 2022 г. достигнет 65 человек. В него должны вой­ти специалисты по информационным технологиям и обработке данных, анализу информации из социальных сетей, эксперты по геополитике, лингвисты. Главными задачами Viginum являются выявление операций по манипулированию мнением в социальных сетях и идентификация стран, откуда распространяются ложные сведения. Прежде всего наблюдение осуществляется за Россией, Китаем и Турцией (Macron…, 2022).

Аналогичные процессы были запущены и в США. В мае 2020 г. бывший президент США Д. Трамп подписал исполнительный указ (Executive Order 13925), в котором содержатся требования к социальным сетям осуществлять модерацию вредоносного контента и удалять его (Hirsch, Breuninger, 2020). Документ отменяет действие Закона об этичном поведении в сфере коммуникаций, в том числе в социальных сетях (Communications Decency Act, Section 230), согласно которому крупные IТ-компании не несли ответственность за размещенные пользователями публикации.

В Швеции с января 2022 г. действует Агентство психологической защиты, на которое возложены задачи по выявлению и анализу фактов оказания незаконного информационного влияния других государств или негосударственных акторов и противодействия ему.

Все эти факты показывают, что власти государств Запада в вопросе самоконтроля и модерации своих площадок соцсетям не доверяют, считая их непрозрачными и избирательными. IТ-компании, с одной стороны, блокируют посты и аккаунты по собственному усмотрению (оспорить такое решение практически невозможно), с другой — нередко игнорируют требования самих пользователей или представителей властей. В ряде стран действуют законы, направленные на удаление из сетевого пространства дезинформационных материалов, в частности, из социальных сетей.

Заключение

Стремление стран Запада к ужесточению государственного контроля СМИ и онлайн-­контента, прикрываемое лозунгами борьбы с дезинформацией, на деле сопровождающей их же акции информационного противоборства, приводит к появлению по всему миру правительственных и корпоративных структур, которые наделены нередко неограниченными правами оценивать информацию с точки зрения истинности, а также законности способов ее распространения.

Феномен дезинформации общества посредством СМИ существовал с момента их появления, однако возможности социальных платформ на базе Интернета значительно расширили сферы его использования, масштабы распространения и охват аудитории. При этом социальные сети и мессенджеры, в большинстве своем контролируемые Вашингтоном, во все большей степени становятся проводниками, а нередко и спонсорами деятельности по политическому дезинформированию населения, а инструменты Всемирной паутины — эффективным средством контроля над формированием политического сознания и мировоззрения населения, что и сделало практикуемую политическими манипуляторами дезинформацию фундаментальной проблемой современного, в первую очередь западного общества (Susarla, 2018). Использование и поддержка частных и корпоративных «киберсил» вопреки ожиданиям стимулировали развитие такого явления, как «дезинформация по найму», услугами которой пользуются те же спецслужбы, армия, партийные и криминальные манипуляторы, а также не брезгующий подобными методами бизнес.

Таким образом, любое публикуемое в СМИ или социальных сетях сообщение, идущее в разрез с западными ценностями или политическими позициями, может автоматически быть объявлено дезинформацией, а при наличии признаков связи с российской, иранской или китайской сторонами — пропагандой с опубликованием соответствующего расследования «цифрового следа» или «операции влияния».

По оценкам западных аналитиков, проблемой в борьбе с дезинформацией остается явный недостаток национальных и международных норм, а также механизмов регулирования деятельности социальных сетей. Её решению могло бы способствовать обеспечение прозрачности их информационной политики, расширение прав пользователей по контролю за использованием собственных персональных данных (Susarla, Chakravorti, Calo, 2021). Кроме того, те же западные аналитики признают, что полезен был бы независимый аудит и регулярные проверки деятельности интернет-­платформ, включая создание инструментов объективной оценки алгоритмов обработки информационных потоков. В этом случае можно будет отследить, каким образом и в какой мере практикуемые приемы и методы формирования новостных лент и подачи контента влияют на его восприятие населением (Bartley…, 2021). Вместе с тем власти Запада понимают, что IT-гиганты «играют свою игру», на что уже не раз указывали ведущие политологи, в том числе Френсис Фукуяма (Fukuyama, 2020), и в политической борьбе являются малонадежными партнерами.

Попытки вынести этот вопрос на международный уровень наталкиваются на лишенные всяких оснований обвинения в той же самой дезинформации и проведении различных информационных акций или попытке сформировать правила игры «под себя». При обсуждении резолюции 76-й сессии ГА ООН 2021 г. «Противодействие дезинформации в целях поощрения и защиты прав человека и основных свобод» представитель Российской Федерации, приветствуя одобрение проекта, подчеркнул, что распространению дезинформации способствует Интернет, а социальные сети широко используются для разжигания ненависти и насилия по признаку расы, национального и этнического происхождения, в то время как глобальные компании, занимающиеся информационными технологиями, не спешат исполнять свои обязательства перед государствами и обществом. Хотя резолюция была принята консенсусом, в западных экспертных оценках нашлась ложка дегтя в виде опасения, что «несмотря на всю демократическую упаковку, эта резолюция больше о подготовке к контролю над информационной средой, чем о защите демократии» (Shapiro, Wanless, 2021).

Как ни странно, но создавшие эту проблему американцы поддерживают такие оценки и предрекают, что в 2022 г. проблема распространения дезинформации в интернет-­пространстве и прежде всего в социальных сетях станет еще более острой и значительной (Susarla, Нее Kim, Zuckerman, 2021). Здесь с ними трудно не согласиться, поскольку в последние месяцы мы это явно наблюдаем.

Библиографический список

Алексеева, И. Ю. (2001) Проблема интеллектуального суверенитета в информационном обществе. Информационное общество, 2. Режим доступа http://emag.iis.ru/arc/infosoc/emag.nsf/0/1b9f045b1ae21c9bc3256c4c002fb909?OpenDocument

Труфанова, Е. O. (2021). Приватное и публичное в цифровом пространстве: размывание границ. Galactica Media Journal of Media Studies, 3(1), 14–38 Режим доступа https://www.researchgate.net/publication/349187633 DOI: 10.46539/gmd.v3i1.130

Федоров, А. В. (2006). Информационная безопасность в мировом политическом процессе. Москва: Изд-во МГИМО. Режим доступа https://mgimo.ru/library/publications/72016/

50 U. S. Code § 3059 (2021). Foreign Malign Influence Center. Cornell Law School. Retrieved from https://www.law.cornell.edu/uscode/text/50/3059

77th Brigade. Influence and Outreach (2022). Retrieved from https://www.army.mod.uk/who-we-are/formations-­divisions-brigades/6th-united-­kingdom-division/77-brigade/groups/

Bagdasaryan, E., Shmatikov, V. (2021). Spinning Language Models: Risks of Propaganda-­As-­A-Service and Countermeasures. Cornell University. Retrieved from https://arxiv.org/abs/2112.05224

Bartley, N., Abeliuk, A., Ferrara, Е., Lerman, К. (2021, June 22). Auditing Algorithmic Bias on Twitter. ACM Digital Library. Retrieved from https://dl.acm.org/doi/fullHtml/10.1145/3447535

Bradshaw, S., Bailey, H., Howard, P. (2021, February 22). Industrialized Disinformation. Global Inventory of Organized Social Media Manipulation. Oxford Internet Institute, University of Oxford. Retrieved from https://demtech.oii.ox.ac.uk/wp-content/uploads/sites/127/2021/01/CyberTroop-­Report-2020-v.2.pdf

Deutsch, J. (2021, December 17). To Regulate Big Tech, you Must Know Big Tech (and be from Denmark. Bloomberg. Retrieved from https://www.bloomberg.com/news/newsletters/2021–12–17/digital-­services-act-led-by-eu-lawmaker-­christel-schaldemose

Digital 2022: Another Year of Bumper Growth (2022, January 26). We are Social. Retrieved from https://wearesocial.com/uk/blog/2022/01/digital-2022-another-year-of-bumper-­growth-2/

Digital News Report 2021 (2021). Reuters Institute for the Study of Journalism | University of Oxford. Retrieved from https://reutersinstitute.politics.ox.ac.uk/digital-news-report/2021

Elias, J. (2021, July 19). YouTube to Add Labels to some Health Videos amid Misinformation Backlash. CNBC. Retrieved from https://www.cnbc.com/2021/07/19/youtube-­labeling-some-health-­videos-amid-misinformation-­backlash.html

Executive Order 13925 of May 28, 2020 (2020. June 2). Preventing Online Censorship. Government Publishing Office. Retrieved from https://www.federalregister.gov/documents/2020/06/02/2020-12030/preventing-­online-censorship

France’s Watered-down Anti-hate Speech Law Enters into Force (2020, July 16). Universal Rights Group. Retrieved from https://www.universal-­rights.org/blog/frances-­watered-down-anti-hate-speech-law-enters-into-force/

Fukuyama, F. (2020). Can make Internet safe for Democracy? Retrieved from https://www.project-­syndicate.org/onpoint/antitrust-can-make-internet-safe-for-democracy-by-francis-­fukuyama-2020-01?barrier=accesspaylog

FY21 Minerva Topics of Interest (2021, May 6). The Minerva Research Initiative. Retrieved from https://www.unco.edu/research/pdf/minerva-fy21-topics.pdf

Gavison, R. (1980). Privacy and the Limits of Law. The Yale Law Journal, 89(3), 465. DOI: 10.2307/795891.

Goodman, L. (2021) The EMBERS Project Can Predict the Future with Twitter. Newsweek. Retrieved from https://www.newsweek.com/ 2015/03/20/embers-­project-can-predict-­future-twitter-312063.html

Hirsch, L., Breuninger, K. (2020, May 28). Trump Targets Social Media Companies with Executive Order After Twitter Fact-checks His Tweets. CNBC. Retrieved from https://www.cnbc.com/2020/05/28/trump-­targets-social-­media-with-executive-­order-after-­twitter-fact-checks-him.html

How Facebook and Google fund Global Misinformation (2021, November 20). MIT Technology Review. Retrieved from https://www.technologyreview.com/2021/11/20/1039076/facebook-­google-disinformation-­clickbait/

In the UK Created a Center to Combat ‘Russian Disinformation’ (2022). MIT Technology Review. Retrieved from https://www.technologyreview.com/2021/11/20/1039076/facebook-­google-disinformation-­clickbait/

Information Manipulation (2022). The Alliance for Securing Democracy (ASD). US German Marshall Fund. Retrieved from https://securingdemocracy.gmfus.org/information-­manipulation/

Ireton, C & Posetti, J. (2018). “Journalism, Fake News & Disinformation: Handbook for Journalism Education and Training”. UNESCO. Retrieved from https://unesdoc.unesco.org/ark:/48223/pf0000265552

Johnson, D. (2020, March 13). CISA Looks to Industry for Anti-troll Tools. FSW. Retrieved from https://fcw.com/security/2020/03/cisa-looks-to-industry-for-anti-troll-­tools/258074/

Kayali, L. (2020, May 13). France Gives Final Green Light to Law Cracking Down on Hate Speech Online. Politico. Retrieved from https://www.politico.eu/article/france-­gives-final-­green-light-to-law-cracking-down-on-hate-speech-­online/

Keane, J. (2021). Post-truth Politics and Why the Antidote Isn’t Simply ‘Fact-checking’ and Truth. The Conversation. Retrieved from https://theconversation.com/post-truth-­politics-and-why-the-antidote-isnt-simply-fact-checking-and-truth-87364

Kirchgaessner, S., Safi, M. (2021, December 16). Facebook Bans Seven ‘Cyber Mercenary’ Companies from its Platforms. The Guardian. Retrieved from https://www.theguardian.com/technology/2021/dec/16/facebook-bans-surveillance-­companies-warnings-­malicious-activity

Macron Gets Intelligence Services Battle Ready to Protect Elections from Potential Foreign Interference (2022, Jan. 3). Intelligence Online. Retrieved from https://www.intelligenceonline.com/government-­intelligence/2022/01/03/macron-gets-intelligence-­services-battle-­ready-to-protect-­elections-from-potential-­foreign-interference,109714158-art

Malnick, E. (2022, March 19). Inside the Secret Government Unit Firing Vladimir Putin’s ‘Armed Lie’. The Telegraph. Retrieved from https://www.telegraph.co.uk/news/2022/03/19/inside-­secret-government-unit-returning-fire-vladimir-­putins/

Matishak, M. (2021, April 26). Intelligence Community Creating Hub to Gird Against Foreign Influence. Politico. Retrieved from https://www.politico.com/news/2021/04/26/intelligence-­community-hub-foreign-­influence-484604

McGuffie, K., Newhouse, A. (2020, September 9). The Radicalization Risks of GPT-3 and Neural Language Models. Middlebury Institute of International Studies at Monterey. Retrieved from https://arxiv.org/abs/2009.06807v1

Milmo, D. (2022, January 12). YouTube is Major Conduit of Fake News, Factcheckers Say. The Guardian. Retrieved from https://www.theguardian.com/technology/2022/jan/12/youtube-is-major-­conduit-of-fake-news-factcheckers-say

Mis-, Dis-, and Malinformation (MDM) (2022). The Cybersecurity and Infrastructure Security Agency (CISA). An Official Website of the United States Government. Retrieved from https://www.cisa.gov/mdm

Nye, J. (2011). The Future of Power. Harvard Kennedy School, Belfer Center for Science and International Affairs, New York: Public Affairs.

Newman, N., Fletcher, R., Schulz A., et al (2021, September 13). Reuters Institute Digital News Report 2021. Reuters Institute for the Study of Journalism. Retrieved from https://reutersinstitute.politics.ox.ac.uk/sites/default/files/2021–06/Digital_News_Report_2021_FINAL.pdf

Ranade, P., Joshi, A., Finin, T. (2021, November 2). Study Shows AI-generated Fake Cybersecurity Reports Fool Experts. University of Maryland. Retrieved from https://theconversation.com/study-­shows-ai-generated-fake-reports-fool-experts-160909

S Mo, J.-J., Dam Нее, K., Kenski, К. (2020, July 20) Perceptions of Mis- or Disinformation Exposure Predict Political Cynicism: Evidence from a Two-wave Survey During the 2018 US Midterm Elections. SAGE Journals. Retrieved from https://journals.sagepub.com/doi/abs/10.1177/1461444820943878

Shapiro, J. N., Wanless, A. (2021, December 28). Why Are Authoritarians Framing International Approaches to Disinformation? Lawfare. Retrieved from https://www.lawfareblog.com/why-are-authoritarians-­framing-international-­approaches-disinformation

Shyam, S. S. (2016, December 8). Why do We Fall for Fake News? The Conversation. Retrieved from https://theconversation.com/why-do-we-fall-for-fake-news-69829

Susarla, A. (2018, August 17). Facebook Begins to Shift from Being a Free and Open Platform into a Responsible Public Utility. The Conversation. Retrieved from https://theconversation.com/facebook-­begins-to-shift-from-being-a-free-and-open-platform-into-a-responsible-­public-utility-101577

Susarla, A. (2020, July 14). Biases in Algorithms Hurt Those Looking for Information on Health. The Conversation. Retrieved from https://theconversation.com/biases-in-algorithms-hurt-those-­looking-for-information-on-health-140616

Susarla, A., Chakravorti, B., Calo, R. (2021, November 10). 3 Ways Congress Could hold Facebook Accountable for Its Actions. The Conversation. Retrieved from https://theconversation.com/3-ways-congress-­could-hold-facebook-­accountable-for-its-actions-169799

Susarla, А., Нее Kim, D., Zuckerman, E. (2021, December 28). Misinformation Could be a Growing Challenge in 2022, Experts Predict. United Press International. Retrieved from https://www.upi.com/Voices/2021/12/28/social-­media-misinformation/9701640614447/

Threat Report (2021, May 26). The State of Influence Operations 2017–2020. Facebook. Retrieved from https://about.fb.com/wp-content/uploads/2021/05/IO-Threat-­Report-­May-20–2021.pdf

Valencia, S. (2021, October 28) Misinformation Online is Bad in English. But it’s far Worse in Spanish. The Washington Post. Retrieved from https://www.washingtonpost.com/outlook/2021/10/28/misinformation-­spanish-facebook-­social-media/

Washington Seeks Coordination between State Dept and ODNI-Backed Centers on Foreign Influence (2021, June 23). Intelligence Online. Retrieved from https://www.intelligenceonline.com/government-­intelligence/2021/06/23/washington-­seeks-coordination-­between-state-dept-and-odni-backed-­centres-on-foreign-­influence,109675073-art

Wiggers, K. (2021, December 14). Propaganda-as-a-service May be on the Horizon if Large Language Models are Abused. Venture Beat. 2021. Retrieved from https://venturebeat.com/2021/12/14/propaganda-as-a-service-may-be-on-the-horizon-if-large-­language-models-are-abused/

World-first Online Safety Laws Introduced in Parliament (2021, March 17). UK Government. Retrieved from https://www.gov.uk/government/news/world-­first-online-­safety-laws-introduced-in-parliament

Статья поступила в редакцию 25.07.2022
Статья принята к публикации 27.08.2022

Для цитирования: Федоров А. В. Дезинформация как инструмент и составная часть информационного противоборства Запада. Южно-российский журнал социальных наук. 2022. Т. 23. № 2. С. 18-36.

Disinformation as a Tool and Part of the Information Confrontation of the West

A. V. Fedorov

Alexander V. Fedorov
Bauman Moscow State Technical University, Moscow, Russia
State Academic University for the Humanities, Moscow, Russia
E-mail: fedorov-av@bmstu.ru. ORCID 0000-0002-0698-4480.

Abstract. In the context of the globalization of communications and the wide availability of social networks, disinformation, adopted by the West as part of its information confrontation with objectionable countries in order to violate social stability, influence the processes of social and political governance, stimulate protest movements and public unrest, has become a serious challenge to the national and international security. It was through the destructive influence on national consciousness, culture and education that all sorts of “color revolutions” were prepared and carried out. A concrete manifestation of this line of the West was the nazification of the population of Ukraine, reinforced by fake promises of dividends from the victory over Russia. The result of 30 years of disinformation impact on the consciousness of Ukrainians, the formation of conditions for the flourishing of the “post-truth” policy, was the readiness of the country’s population to perceive ultra-chauvinism as a desire for “independence”, and anti-Russianness as a “European path of development”.
Regulatory legal instruments to counter the spread of disinformation began to be introduced into national and international law at the beginning of this century. The SCO intergovernmental agreement of 2009 named disinformation among the threats to international security. The West, which sees signs of “democratic dysfunction” in the expansion of the practice of disinformation, also began to fight it by adopting the European Code of Practice on disinformation and supporting the relevant resolution of the 76th session of the UN General Assembly. However, these steps have become nothing more than declarations: the flow of disinformation is growing and the measures taken are not working.

Key words: disinformation, public consciousness, information space, information confrontation, information warfare, information weapons, media, social networks, information resources, propaganda, fake news.

References

50 U. S. Code § 3059 (2021). Foreign Malign Influence Center. Cornell Law School. Retrieved from https://www.law.cornell.edu/uscode/text/50/3059

77th Brigade. Influence and Outreach (2022). Retrieved from https://www.army.mod.uk/who-we-are/formations-­divisions-brigades/6th-united-­kingdom-division/77-brigade/groups/

Alekseyeva, I. Yu. (2001) Problema intellektual’nogo suvereniteta v informatsionnom obshchestve [The Problem of Intellectual Sovereignty in the Information Society]. Informatsionnoye obshchestvo [Information Society], 2. Retrieved from http://emag.iis.ru/arc/infosoc/emag.nsf/0/1b9f045b1ae21c9bc3256c4c002fb909?OpenDocument

Bagdasaryan, E., Shmatikov, V. (2021). Spinning Language Models: Risks of Propaganda-­As-­A-Service and Countermeasures. Cornell University. Retrieved from https://arxiv.org/abs/2112.05224

Bartley, N., Abeliuk, A., Ferrara, Е., Lerman, К. (2021, June 22). Auditing Algorithmic Bias on Twitter. ACM Digital Library. Retrieved from https://dl.acm.org/doi/fullHtml/10.1145/3447535

Bradshaw, S., Bailey, H., Howard, P. (2021, February 22). Industrialized Disinformation. Global Inventory of Organized Social Media Manipulation. Oxford Internet Institute, University of Oxford. Retrieved from https://demtech.oii.ox.ac.uk/wp-content/uploads/sites/127/2021/01/CyberTroop-­Report-2020-v.2.pdf

Deutsch, J. (2021, December 17). To Regulate Big Tech, you Must Know Big Tech (and be from Denmark. Bloomberg. Retrieved from https://www.bloomberg.com/news/newsletters/2021–12–17/digital-­services-act-led-by-eu-lawmaker-­christel-schaldemose

Digital 2022: Another Year of Bumper Growth (2022, January 26). We are Social. Retrieved from https://wearesocial.com/uk/blog/2022/01/digital-2022-another-year-of-bumper-­growth-2/

Digital News Report 2021 (2021). Reuters Institute for the Study of Journalism | University of Oxford. Retrieved from https://reutersinstitute.politics.ox.ac.uk/digital-news-report/2021

Elias, J. (2021, July 19). YouTube to Add Labels to some Health Videos amid Misinformation Backlash. CNBC. Retrieved from https://www.cnbc.com/2021/07/19/youtube-­labeling-some-health-­videos-amid-misinformation-­backlash.html

Executive Order 13925 of May 28, 2020 (2020. June 2). Preventing Online Censorship. Government Publishing Office. Retrieved from https://www.federalregister.gov/documents/2020/06/02/2020–12030/preventing-­online-censorship

Fedorov, A. V. (2006). Informatsionnaya bezopasnost’ v mirovom politicheskom protsesse [Information Security in the Global Political Process]. Moskva: Izd-vo MGIMO. Retrieved from https://mgimo.ru/library/publications/72016/

France’s Watered-down Anti-hate Speech Law Enters into Force (2020, July 16). Universal Rights Group. Retrieved from https://www.universal-­rights.org/blog/frances-­watered-down-anti-hate-speech-law-enters-into-force/

Fukuyama, F. (2020). Can make Internet safe for Democracy? Retrieved from https://www.project-­syndicate.org/onpoint/antitrust-can-make-internet-safe-for-democracy-by-francis-­fukuyama-2020–01?barrier=accesspaylog

FY21 Minerva Topics of Interest (2021, May 6). The Minerva Research Initiative. Retrieved from https://www.unco.edu/research/pdf/minerva-fy21-topics.pdf

Gavison, R. (1980). Privacy and the Limits of Law. The Yale Law Journal, 89(3), 465. DOI:10.2307/795891.

Goodman, L. (2021) The EMBERS Project Can Predict the Future with Twitter. Newsweek. Retrieved from https://www.newsweek.com/ 2015/03/20/embers-­project-can-predict-­future-twitter-312063.html

Hirsch, L., Breuninger, K. (2020, May 28). Trump Targets Social Media Companies with Executive Order After Twitter Fact-checks His Tweets. CNBC. Retrieved from https://www.cnbc.com/2020/05/28/trump-­targets-social-­media-with-executive-­order-after-­twitter-fact-checks-him.html

How Facebook and Google fund Global Misinformation (2021, November 20). MIT Technology Review. Retrieved from https://www.technologyreview.com/2021/11/20/1039076/facebook-­google-disinformation-­clickbait/

In the UK Created a Center to Combat ‘Russian Disinformation’ (2022). MIT Technology Review. Retrieved from https://www.technologyreview.com/2021/11/20/1039076/facebook-­google-disinformation-­clickbait/

Information Manipulation (2022). The Alliance for Securing Democracy (ASD). US German Marshall Fund. Retrieved from https://securingdemocracy.gmfus.org/information-­manipulation/

Ireton, C & Posetti, J. (2018). “Journalism, Fake News & Disinformation: Handbook for Journalism Education and Training”. UNESCO. Retrieved from https://unesdoc.unesco.org/ark:/48223/pf0000265552

Johnson, D. (2020, March 13). CISA Looks to Industry for Anti-troll Tools. FSW. Retrieved from https://fcw.com/security/2020/03/cisa-looks-to-industry-for-anti-troll-­tools/258074/

Kayali, L. (2020, May 13). France Gives Final Green Light to Law Cracking Down on Hate Speech Online. Politico. Retrieved from https://www.politico.eu/article/france-­gives-final-­green-light-to-law-cracking-down-on-hate-speech-­online/

Keane, J. (2021). Post-truth Politics and Why the Antidote Isn’t Simply ‘Fact-checking’ and Truth. The Conversation. Retrieved from https://theconversation.com/post-truth-­politics-and-why-the-antidote-isnt-simply-fact-checking-and-truth-87364

Kirchgaessner, S., Safi, M. (2021, December 16). Facebook Bans Seven ‘Cyber Mercenary’ Companies from its Platforms. The Guardian. Retrieved from https://www.theguardian.com/technology/2021/dec/16/facebook-bans-surveillance-­companies-warnings-­malicious-activity

Macron Gets Intelligence Services Battle Ready to Protect Elections from Potential Foreign Interference (2022, Jan. 3). Intelligence Online. Retrieved from https://www.intelligenceonline.com/government-­intelligence/2022/01/03/macron-gets-intelligence-­services-battle-­ready-to-protect-­elections-from-potential-­foreign-interference,109714158-art

Malnick, E. (2022, March 19). Inside the Secret Government Unit Firing Vladimir Putin’s ‘Armed Lie’. The Telegraph. Retrieved from https://www.telegraph.co.uk/news/2022/03/19/inside-­secret-government-unit-returning-fire-vladimir-­putins/

Matishak, M. (2021, April 26). Intelligence Community Creating Hub to Gird Against Foreign Influence. Politico. Retrieved from https://www.politico.com/news/2021/04/26/intelligence-­community-hub-foreign-­influence-484604

McGuffie, K., Newhouse, A. (2020, September 9). The Radicalization Risks of GPT-3 and Neural Language Models. Middlebury Institute of International Studies at Monterey. Retrieved from https://arxiv.org/abs/2009.06807v1

Milmo, D. (2022, January 12). YouTube is Major Conduit of Fake News, Factcheckers Say. The Guardian. Retrieved from https://www.theguardian.com/technology/2022/jan/12/youtube-is-major-­conduit-of-fake-news-factcheckers-say

Mis-, Dis-, and Malinformation (MDM) (2022). The Cybersecurity and Infrastructure Security Agency (CISA). An Official Website of the United States Government. Retrieved from https://www.cisa.gov/mdm

Newman, N., Fletcher, R., Schulz A., et al (2021, September 13). Reuters Institute Digital News Report 2021. Reuters Institute for the Study of Journalism. Retrieved from https://reutersinstitute.politics.ox.ac.uk/sites/default/files/2021–06/Digital_News_Report_2021_FINAL.pdf

Nye, J. (2011). The Future of Power. Harvard Kennedy School, Belfer Center for Science and International Affairs, New York: Public Affairs.

Ranade, P., Joshi, A., Finin, T. (2021, November 2). Study Shows AI-generated Fake Cybersecurity Reports Fool Experts. University of Maryland. Retrieved from https://theconversation.com/study-­shows-ai-generated-fake-reports-fool-experts-160909

S Mo, J.-J., Dam Нее, K., Kenski, К. (2020, July 20) Perceptions of Mis- or Disinformation Exposure Predict Political Cynicism: Evidence from a Two-wave Survey During the 2018 US Midterm Elections. SAGE Journals. Retrieved from https://journals.sagepub.com/doi/abs/10.1177/1461444820943878

Shapiro, J. N., Wanless, A. (2021, December 28). Why Are Authoritarians Framing International Approaches to Disinformation? Lawfare. Retrieved from https://www.lawfareblog.com/why-are-authoritarians-­framing-international-­approaches-disinformation

Shyam, S. S. (2016, December 8). Why do We Fall for Fake News? The Conversation. Retrieved from https://theconversation.com/why-do-we-fall-for-fake-news-69829

Susarla, A. (2018, August 17). Facebook Begins to Shift from Being a Free and Open Platform into a Responsible Public Utility. The Conversation. Retrieved from https://theconversation.com/facebook-­begins-to-shift-from-being-a-free-and-open-platform-into-a-responsible-­public-utility-101577

Susarla, A. (2020, July 14). Biases in Algorithms Hurt Those Looking for Information on Health. The Conversation. Retrieved from https://theconversation.com/biases-in-algorithms-hurt-those-­looking-for-information-on-health-140616

Susarla, A., Chakravorti, B., Calo, R. (2021, November 10). 3 Ways Congress Could hold Facebook Accountable for Its Actions. The Conversation. Retrieved from https://theconversation.com/3-ways-congress-­could-hold-facebook-­accountable-for-its-actions-169799

Susarla, А., Нее Kim, D., Zuckerman, E. (2021, December 28). Misinformation Could be a Growing Challenge in 2022, Experts Predict. United Press International. Retrieved from https://www.upi.com/Voices/2021/12/28/social-­media-misinformation/9701640614447/

Threat Report (2021, May 26). The State of Influence Operations 2017–2020. Facebook. Retrieved from https://about.fb.com/wp-content/uploads/2021/05/IO-Threat-­Report-­May-20–2021.pdf

Trufanova, Ye. O. (2021). Privatnoye i publichnoye v tsifrovom prostranstve: razmyvaniye granits [Private and Public in the Digital Space: Blurring of the Lines]. Galactica Media Journal of Media Studies [Galactica Media Journal of Media Studies], 3(1), 14–38. DOI: 10.46539/gmd.v3i1.130

Valencia, S. (2021, October 28) Misinformation Online is Bad in English. But it’s far Worse in Spanish. The Washington Post. Retrieved from https://www.washingtonpost.com/outlook/2021/10/28/misinformation-­spanish-facebook-­social-media/

Washington Seeks Coordination between State Dept and ODNI-Backed Centers on Foreign Influence (2021, June 23). Intelligence Online. Retrieved from https://www.intelligenceonline.com/government-­intelligence/2021/06/23/washington-­seeks-coordination-­between-state-dept — and-odni-backed-­centres-on-foreign-­influence,109675073-art

Wiggers, K. (2021, December 14). Propaganda-as-a-service May be on the Horizon if Large Language Models are Abused. Venture Beat. 2021. Retrieved from https://venturebeat.com/2021/12/14/propaganda-as-a-service-may-be-on-the-horizon-if-large-­language-models-are-abused/

World-first Online Safety Laws Introduced in Parliament (2021, March 17). UK Government. Retrieved from https://www.gov.uk/government/news/world-­first-online-­safety-laws-introduced-in-parliament

Received 25.07.2022
Accepted 27.08.2022

For citation: Fedorov A. V. Disinformation as a Tool and Part of The Information Confrontation of The West. South-­Russian Journal of Social Sciences. 2022. Vol. 23. No. 2. Pp. 18-36.


  1. 1 Термин «постравда» в основных западных словарях трактуется как «информационный поток, который намеренно конструируется в современном обществе с помощью средств массовой коммуникации для создания виртуальной, отличной от действительности, реальности в целях манипулирования общественным сознанием». В 2016 г. Оксфордским словарем английского языка (Oxford Dictionary) именно в таком значении термин был признан словом года («Word of the Year 2016 is...» Oxford Dictionaries. Retrieved 2019-05-20. URL: https://languages.oup.com/word-of-the-year/2016/)

  2. 2 Официальный «Словарь Минобороны США» (DOD Dictionary of Military Terms) трактует (присутствовало в изданиях до 2018 г.) термин «информационное противоборство» («information warfare») как «действия, предпринимаемые с целью достижения информационного превосходства, в том числе за счет воздействия на собственно информацию, процессы на основе информации, информационные системы, и компьютерные сети противника при усилении и защите собственной информации, процессов на основе информации, информационных систем и компьютерных сетей». При этом широко используемый словарь информационных терминов Рендала Вайтайкера (GLOSSARY:The Convoluted Terminology of Information Warfare Compiled by Randall Whitaker, Ph.D.) уточняет, что «информационное противоборство», включающее как наиболее острую стадию «информационную войну», есть «обеспечение контроля, подрывные или разрушительные действия, предпринимаемые тайно или открыто в мирное время, в период кризиса или войны против социальных, политических, экономических, промышленных или военных электронных информационных систем».

  3. 3 Термин «эксформация» введен (Алексеева, 2001) как смысловая пара термину «информация»: «ин-формация» как то, что находится внутри формы, содержание сообщения, его контент противопоставляется «экс-формации» – тому, что имеется «снаружи», вне формы, неизбежной «нагрузке» к сообщению, характер которой определяется способом и условиями его производства и передачи. Эксформация – это дополнение, которое мы получаем вместе с информацией, и притом дополнение особого рода, находящееся «по ту сторону формы», но способное влиять на восприятие информации адресатом.

  4. 4 Следует отметить, что большинство из них являются юридическими лицами США, действуют на основе тех или иных соглашений с министерством торговли США и и являются налоговыми резидентами США.

  5. 5 Небольшие сообщества пользователей социальных сетей, имеющих общие взгляды на основные интересующие их проблемы, обсуждающие их только в этом коллективе и отвергающие любое мнение, если он не созвучно (не является «эхом») позиции группы.

  6. 6 От англ. deepfake — методика синтеза изображения, основанная на использовании генеративно-состязательных нейросетей. Одна часть алгоритма учится на реальных фотографиях определенного объекта и создает изображение, буквально «состязаясь» со второй частью алгоритма, пока та не начнет путать копию с оригиналом (Brandon, John. Terrifying high-tech porn: Creepy ‘deepfake’ videos are on the rise, Available at: https://www.foxnews.com/tech/terrifying-high-tech-porn-creepy-deepfake-videos-are-on-the-rise)

  7. 7 Аббревиатура слов Single User Multiple Accounts — учетные записи, управляемые одним человеком, использующим свою настоящую личность.

  8. 8 Meta признана экстремистской организацией в России.

  9. 9 Компания, которая производит ложный контент на самые разные темы (так же называется контент-ферма) и использует ключевые слова, позволяющие занимать высокие места в результатах поиска в Google и других поисковых системах.

  10. 10 Facebook, продукт компании Meta, которая признана экстремистской организацией в России.

  11. 11 Instagram, продукт компании Meta, которая признана экстремистской организацией в России.

  12. 12 Цукерман Итан (Ethan Zuckerman) – доцент (публичная политика, коммуникация и информация), директор Центра по изучению гражданских медиа при Массачусетском технологическом институте, интернет-активист и блогер, сооснователь международного блог-агрегатора Global Voices. Большую известность ему принесла дебютная книга «Новые соединения. Цифровые космополиты в коммуникативную эпоху» (Rewire. Digital Cosmopolitans in the Age of Connection).

  13. 13 Viginum – сокращение от фр. Service de vigilance et de protection contre les ingérences numériques étrangères.

Политические институты и процессы