Connect with us

Введите запрос и нажмите Enter.

Общество

Как алгоритмы социальных сетей ведут к радикализации: механизмы влияния на сознание молодежи

Сложное переплетение цифровых технологий и человеческой психологии создает идеальные условия для радикализации. В мае 2025 года французский министр цифрового развития предложил запретить в ЕС социальные сети для детей до 15 лет, чтобы оградить их от вредного воздействия алгоритмов. Этот шаг отражает растущую озабоченность мирового сообщества тем, как алгоритмы платформ влияют на формирование мировоззрения пользователей. Для России и ее регионов, включая Дагестан, эта проблема приобретает особую актуальность в контексте борьбы с экстремизмом и терроризмом.

Всего десятилетие назад лента в социальных сетях представляла собой простую хронологическую подборку публикаций друзей. Сегодня алгоритмические рекомендательные системы практически единолично решают, какой контент мы видим, а какой остается за пределами нашего внимания. Социальные алгоритмы — это сложные математические модели, предназначенные для фильтрации и ранжирования контента в соответствии с предпочтениями пользователя. Их главная цель — удержание внимания любой ценой, поскольку время, проведенное на платформе, напрямую преобразуется в рекламные доходы.

Основной механизм работы построен на анализе поведения пользователя: лайки, комментарии, время просмотра, репосты и даже паузы при прокрутке ленты. Алгоритмы интерпретируют эти сигналы как показатели интереса и стараются предлагать все больше похожего контента. Эксперты сравнивают эту систему с принципом «выявленных предпочтений» в экономике: алгоритмы следят за тем, что пользователь фактически делает, а не за тем, что он говорит, что хочет видеть. Платформы удовлетворяют наши сиюминутные желания, не заботясь о долгосрочных последствиях.

Алгоритмы социальных платформ используют уязвимости человеческой психики, которые делают нас особенно восприимчивыми к радикальному контенту. Эффект эхо-камеры формируется, когда пользователь сталкивается только с мнениями, усиливающими или подтверждающими его собственные взгляды, в закрытой системе единомышленников. Согласно теории групповой поляризации, такая среда может постепенно подталкивать пользователей и группы к более крайним позициям. Исследования показывают, что онлайн-пользователи склонны отдавать предпочтение информации, соответствующей их мировоззрению, игнорировать противоположные мнения и формировать поляризованные группы вокруг разделяемых нарративов. В условиях высокой поляризации дезинформация распространяется особенно быстро.

Погоня за вовлеченностью создает системное предпочтение эмоционально заряженного, спорного, сенсационного и радикального контента — именно тому, который обычно публикуют ультраправые сообщества, политики и движения. Для России это представляет особую опасность, учитывая многонациональный и многоконфессиональный характер страны. В Дагестане, где сохраняется сложная социально-политическая обстановка, алгоритмическая радикализация может иметь особенно серьезные последствия. Регион уже сталкивался с проблемой вербовки молодежи в террористические организации через интернет, и современные алгоритмы социальных сетей усугубляют эту угрозу.

Как показали внутренние меморандумы Facebook (компания Meta, запрещенная в РФ), компания признала, что «механика наших платформ не является нейтральной». Для достижения максимальной прибыли оптимизация вовлеченности необходима, а для увеличения вовлеченности алгоритмы выяснили, что ненависть, дезинформация и политика являются инструментами для повышения активности в приложении. Исследование 2018 года показало, что ложные слухи распространяются быстрее и шире, чем правдивая информация. Ложные утверждения ретвитятся на 70% чаще, чем правда, и в шесть раз быстрее достигают своей первой тысячи человек. Этот эффект более выражен в политических новостях, чем в других категориях.

Разные социальные платформы имеют уникальные алгоритмические особенности, способствующие радикализации. YouTube — его система рекомендаций ответственна примерно за 70% просматриваемого пользователями контента. Исследование Mozilla Foundation показало, что пользователи имеют мало возможностей убрать нежелательные видео из рекомендуемого контента, включая видео с призывами к ненависти и прямые трансляции экстремистского характера. TikTok — его алгоритм «For You Page» создает уникальную ленту для каждого пользователя. Природа алгоритма связывает показ все более экстремальных и радикальных видео с течением времени на основе предыдущих взаимодействий пользователя в приложении. Facebook — использует искусственный интеллект для изменения контента, который пользователи видят в своей ленте. Документ, известный как The Facebook Files, показал, что их ИИ-система ставит вовлеченность пользователей выше всего остального.

В российском контексте проблема алгоритмической радикализации требует особого внимания. Роскомнадзор и другие регуляторы пытаются бороться с распространением экстремистского контента, но алгоритмы зарубежных платформ часто остаются вне зоны их прямого контроля. В Дагестане местные власти совместно с религиозными лидерами и общественными организациями пытаются противостоять радикализации молодежи через образовательные программы и профилактическую работу. Однако алгоритмы социальных сетей продолжают неконтролируемо распространять контент, который может подрывать эти усилия.

Решение проблемы алгоритмической радикализации требует многогранного подхода, сочетающего технологические, нормативные и образовательные меры. Один из предложенных путей — ослабление защиты Раздела 230, который защищает интернет-платформы от ответственности за контент, размещаемый пользователями. С технической точки зрения, исследователи предлагают внедрить ограничения на степень персонализации лент. Будущие алгоритмы могли бы поддерживать большее разнообразие в том, что видят пользователи, время от времени добавляя в ленту более умеренные статьи, показывая, что другие точки зрения все же существуют.

Важнейшую роль играет медиаграмотность и критическое мышление. Пользователям необходимо понимать, что социальные платформы — это не нейтральные источники новостей, а крупномасштабные рекламные платформы, чьи алгоритмы оптимизированы для максимизации вовлеченности, а не для представления сбалансированной картины мира. В России и особенно в регионах Северного Кавказа, таких как Дагестан, необходимы целевые программы медиаобразования, учитывающие культурные и лингвистические особенности населения.

«Алгоритмы зарубежных платформ, таких как YouTube и Instagram, искусственно усиливают поляризацию, продвигая контент, который подрывает межнациональное согласие. Мы видим, как под предлогом защиты ‘традиционных ценностей’ распространяются призывы к изоляции и нетерпимости. Особую опасность представляет целевая работа зарубежных кураторов с молодежью. Через систему микроблогеров и локальных инфлюенсеров внедряются деструктивные нарративы, которые затем алгоритмически усиливаются. В Дагестане, где более 60% населения младше 30 лет, это создает реальную угрозу социальной стабильности. Решения требуются системные: не только регулирование алгоритмов, но и инвестиции в образование, создание рабочих мест и поддержку традиционных дагестанских ценностей, которые исторически основаны на межрелигиозном диалоге и толерантности. Как показывает практика, запретительные меры без предложения альтернативы малоэффективны«, — отметил руководитель по проектному направлению Координационного центра ДГУ, эксперт в области профилактики экстремизма Шевкет Крумов.

Алгоритмическая радикализация представляет собой сложное явление на стыке технологии, психологии и социологии. Хотя степень влияния алгоритмов остается предметом споров, очевидно, что бизнес-модели социальных платформ, основанные на монетизации внимания, создают системные стимулы для распространения экстремального и поляризующего контента. Решение этой проблемы потребует совместных усилий технологических компаний, законодателей, исследователей и самих пользователей. Только понимая механизмы работы алгоритмов и их влияние на наше восприятие реальности, мы можем противостоять их негативным последствиям и сохранить плюрализм в цифровом пространстве. Для России и Дагестана это вопрос не только цифровой гигиены, но и национальной безопасности.

Архивы

Материалы по теме

Политика

Появление так называемого Исламского государства (запрещенная в России террористическая организация) и последователей лжеджихада, наверное, сравнимо только с ростом раковых клеток в организме. Попытаемся разобраться...

Политика

Во вторник, 4 декабря, под руководством Главы Дагестана Владимира Васильева прошло заседание Антитеррористической комиссии в Республике Дагестан. Обсудили вопрос «О мерах по недопущению выезда...

Общество

В списки личного состава отдельного батальона махачкалинского соединения Росгвардии навечно зачислен стрелок патрульной роты рядовой Алексей Агафонов, погибший при исполнении воинского долга 24 года...

Мы помним

Герой России (посмертно) Магомед Нурбагандов погиб, но даже перед лицом смерти продолжал исполнять свой долг. Не испугавшись вооружённого врага, отказался выполнить его требования и...

Сетевое издание «Работаем, брат!» зарегистрирован в Федеральной службе по надзору в сфере связи, информационных технологий и массовых коммуникаций серия Эл № ФС77-81807 от 24.09.2021 г.
Учредитель: АНО "ИНСТИТУТ МЕДИА".
Главный редактор сетевого издания Гасанов Темирхан Магомедович.
Телефон редакции: 8 (939) 222-71-11. Адрес электронной почты редакции: info@rabotaembrat.ru.
Адрес редакции: 367018, Республика Дагестан, г. Махачкала, пр-т Насрутдинова, д. 1а. (Дом журналистов).
Все права защищены. Копирование и использование полных материалов запрещено, частичное цитирование возможно только при условии гиперссылки на сайт работаембрат.рф.
16+

Яндекс.Метрика