Connect with us

Введите запрос и нажмите Enter.

Общество

Цифровой след экстремиста: как соцсети изучают ваши слабости

Безобидный просмотр видео на YouTube* или пролистывание ленты TikTok редко вызывает у нас тревогу. Мы считаем, что просто развлекаемся или ищем информацию. Однако за этой простотой скрывается сложная и опасная механика: пока мы ставим лайки и делаем репосты, алгоритмы социальных сетей незаметно формируют наш «цифровой след». Анализируя каждый наш клик, они не просто показывают рекламу — они предугадывают наши слабости и, как предупреждают эксперты, могут невольно подталкивать пользователя в воронку экстремизма.

 Кто на самом деле формирует вашу ленту?

Алгоритм социальной сети — это не просто набор кода. Это сложная система, созданная для достижения главной коммерческой цели платформы: удержания вашего внимания как можно дольше. В «экономике внимания» чем дольше пользователь находится в сети, тем больше рекламы он увидит, а значит, тем выше прибыль платформы. Чтобы достичь этого, алгоритмы анализируют колоссальный объем данных: какие посты вы лайкаете, какие видео досматриваете до конца, на чем задерживаете взгляд, что комментируете и чем делитесь.

На основе этих данных система формирует персональную ленту, стремясь показать контент, который вызовет наиболее сильный эмоциональный отклик. Как показывают исследования, эмоционально заряженный, сенсационный, а подчас и радикальный контент генерирует больше кликов и реакций, поэтому алгоритмы невольно отдают ему предпочтение. Это фундаментальная особенность их работы, а не случайная ошибка.

 Пузыри и эхо-камеры: как сужается реальность

Постепенно, стремясь угодить пользователю, алгоритм загоняет его в так называемый «информационный пузырь» (filter bubble). В этом пузыре человек видит только ту информацию, которая согласуется с его уже существующими взглядами и предпочтениями. Параллельно формируются «эхо-камеры» — среда, где пользователь взаимодействует исключительно с единомышленниками, а любые альтернативные точки зрения отсекаются.

Участники такой камеры взаимно укрепляют убеждения друг друга, создавая замкнутый цикл одобрения. По имеющимся данным опросов, большинство пользователей соцсетей регулярно сталкиваются с контентом, подтверждающим их взгляды, а персонализация ленты значительно увеличивает время, проводимое на платформе. Пользователь оказывается в реальности, где его картина мира постоянно получает подтверждение, а всё, что ей противоречит, просто исчезает из поля зрения.

 Механизм радикализации: от любопытства к крайним взглядам

Самый тревожный аспект работы алгоритмов был назван экспертами «алгоритмической радикализацией». Это процесс, при котором рекомендательные системы социальных сетей непреднамеренно подталкивают пользователей к принятию крайних политических, социальных или религиозных взглядов. Механизм этого явления детально описывают эксперты. Доктор Ханс Якоб Карл Шиндлер, эксперт по терроризму, отмечает, что «алгоритмы социальных сетей подбирают контент, усиливают радикальные идеи и формируют замкнутую виртуальную среду, где пользователи теряют связь с реальностью». Он подчеркивает, что экстремисты умело используют чувство изоляции.

«Алгоритмы усиливают этот эффект — человек попадает в замкнутый мир, где всё остальное становится враждебным. На этом этапе насилие воспринимается как долг».

Наглядной иллюстрацией этого механизма служит множество задокументированных случаев: люди, начинавшие с просмотра обычного политического контента, неделя за неделей через алгоритмы TikTok и YouTube* приходили к видео, которые представляли оппонентов не как людей с иными взглядами, а как врагов, требующих «устранения». Это была радикализация, инженерно спроектированная платформами, чья бизнес-модель построена на максимальном удержании внимания любой ценой.

В ходе одного из исследований были созданы подставные аккаунты юношей в TikTok и YouTube Shorts*. Аккаунты, интересовавшиеся «мужским» контентом (спорт, игры), почти сразу начинали получать рекомендации мизогинного и радикального контента. А эксперты Southern Poverty Law Center (SPLC) показали, что рекомендательный алгоритм Telegram устроен еще более агрессивно: пользователи, просматривающие безобидные темы, получали рекомендации экстремистских каналов, а запрос по одной форме радикального контента (например, антиправительственные теории заговора) немедленно приводил к потоку рекомендаций антисемитских и радикально-националистических каналов.

Аналитики отмечают, что за последнее десятилетие алгоритмические рекомендательные системы стали почти единолично решать, какой контент пользователь видит, а какой нет. При этом крупные платформы, такие как Meta*, X * и YouTube*, по словам специалистов, не всегда активно сотрудничают с властями в расследованиях, хотя обязаны предоставлять данные по запросу.

«Пользователи сами не замечают, как попадают в цифровую ловушку»: комментарий эксперта

Для понимания того, как этим угрозам противостоять на региональном уровне, мы обратились к Шевкету Крумову, руководителю по проектному направлению Координационного центра Дагестанского государственного университета. Координационный центр ДГУ — это структура, занимающаяся противодействием идеологии терроризма и экстремизма, а также профилактикой деструктивных явлений в молодежной среде.

«Сегодня молодежи необходимо не просто получать информацию, а уметь отличать правду от манипуляций, — подчеркивает Шевкет Крумов. — Мы видим, как рекомендательные системы социальных сетей устроены таким образом, что пользователи, особенно молодые, сами не замечают, как попадают в цифровую ловушку. Алгоритм замечает интерес к острой теме и начинает методично предлагать всё более радикальный контент. Это не просто подборка новостей — это формирование искаженной картины мира. Чтобы защитить молодёжь от пагубного влияния интернета и социальных сетей, распространяющих экстремистскую идеологию, в первую очередь надо работать и общаться с молодёжью, создавать условия для саморазвития. Необходимо быть максимально открытыми с молодыми людьми. Надо создавать досуговые, творческие учреждения, где молодёжь сможет развиваться, чтобы она своё свободное время уделяла получению полезной информации и знакомствам, а не изучению негативного контента. Если мы не будем доводить информацию, это будут делать третьи лица. Каждый пользователь должен включать критическое мышление и помнить: если в вашей ленте становится всё меньше разных точек зрения и всё больше одного окрашенного крайними эмоциями контента — вы уже внутри чужой воронки».

Цифровая гигиена: как защитить себя и своих близких

Оградить себя и свою семью от этой угрозы можно, и ключевой навык здесь — цифровая грамотность. Специалисты Регионального центра информационной безопасности молодежи на своих занятиях обучают школьников правилам безопасного поведения в сети: как распознавать манипулятивный контент, как противодействовать вербовщикам и защищать личную информацию. Помимо этого, эксперты в области кибербезопасности рекомендуют:

  • Регулярно чистить историю поиска и рекомендаций. Это не даст алгоритму увести вас далеко по цепочке нежелательного контента.
  • Сознательно подписываться на источники с разными точками зрения, чтобы разбить «информационный пузырь».
  • Использовать настройки приватности: ограничивать доступ к личной информации.
  • Общаться с близкими о тревожных изменениях: резкая смена круга общения, усиление интереса к конспирологии или радикальной риторике — это «красные флаги», на которые важно вовремя реагировать.
  • Помнить, что цель экстремистов — дать простые ответы на сложные вопросы. Эксперты предупреждают, что людей с опытом насилия, переживших травмы или столкнувшихся с трудностями, эти идеологии делают особенно уязвимыми, предлагая «черно-белую картину мира».
  • Использовать инструменты родительского контроля, особенно если речь идет о подростках, которые являются наиболее уязвимой категорией. По данным британской контрразведки MI5, до 13% лиц в группе риска терроризма в Великобритании — младше 18 лет.

Проблема алгоритмической радикализации — это не повод отказываться от технологий. Это повод стать более осознанными пользователями. Необходимо понимать, что, находясь в цифровой среде, мы не просто потребляем информацию — мы постоянно оставляем «цифровой след». Этот след изучают не только спецслужбы, обеспечивающие нашу безопасность, но и машины, чья главная задача — удержать нас в сети. А также те, кто использует эти машины в своих деструктивных целях. Знание того, как работают алгоритмы, — это первый и самый важный шаг к тому, чтобы перестать быть мишенью и стать хозяином своей информационной повестки.

 

*Meta признана экстремистской организацией и запрещена на территории РФ.
*Соцсеть X (бывшая Twitter) заблокирована на территории России по требованию Генпрокуратуры.

Архивы

Материалы по теме

Политика

Появление так называемого Исламского государства (запрещенная в России террористическая организация) и последователей лжеджихада, наверное, сравнимо только с ростом раковых клеток в организме. Попытаемся разобраться...

Политика

Во вторник, 4 декабря, под руководством Главы Дагестана Владимира Васильева прошло заседание Антитеррористической комиссии в Республике Дагестан. Обсудили вопрос «О мерах по недопущению выезда...

Общество

В списки личного состава отдельного батальона махачкалинского соединения Росгвардии навечно зачислен стрелок патрульной роты рядовой Алексей Агафонов, погибший при исполнении воинского долга 24 года...

Мы помним

Герой России (посмертно) Магомед Нурбагандов погиб, но даже перед лицом смерти продолжал исполнять свой долг. Не испугавшись вооружённого врага, отказался выполнить его требования и...

Сетевое издание «Работаем, брат!» зарегистрирован в Федеральной службе по надзору в сфере связи, информационных технологий и массовых коммуникаций серия Эл № ФС77-81807 от 24.09.2021 г.
Учредитель: АНО "ИНСТИТУТ МЕДИА".
Главный редактор сетевого издания Гасанов Темирхан Магомедович.
Телефон редакции: 8 (939) 222-71-11. Адрес электронной почты редакции: info@rabotaembrat.ru.
Адрес редакции: 367018, Республика Дагестан, г. Махачкала, пр-т Насрутдинова, д. 1а. (Дом журналистов).
Все права защищены. Копирование и использование полных материалов запрещено, частичное цитирование возможно только при условии гиперссылки на сайт работаембрат.рф.
16+

Яндекс.Метрика