Тимофей Петрищенко

Алгоритмы – новая четвёртая власть

Как рекомендации соцсетей влияют на людей и как с этим бороться?

Алгоритмы социальных сетей определяют, какой контент пользователь увидит в своей ленте. Цифровые фильтры могут незаметно менять восприятие фактов и взглядов. Международное интернет-издание The Insider, специализирующееся на журналистских расследованиях, фактчекинге и политической аналитике, опубликовало материал о влиянии алгоритмов соцсетей и том, как они способствуют радикализации общества. С разрешения редакции мы публикуем главное.

Как алгоритмы влияют на психику?

В мае французский министр цифрового развития предложила запретить в ЕС соцсети для детей до 15 лет, чтобы избавить их от вредного воздействия алгоритмов. Исследования показывают, что за последнее десятилетие алгоритмы рекомендаций стали почти единолично решать, какой контент пользователь видит, а какой нет, сообщает Insider.

Алгоритмы отдают предпочтение эмоциональному, неоднозначному, сенсационному и радикальному контенту. Как правило, именно такой постят ультраправые сообщества, политики и движения. Радикальные посты вызывают больше кликов и реакций и лучше учитываются алгоритмами. Исследователи говорят, что это не ошибка, а особенность структуры платформ.

Unsplash: camilo jimenez

Джастин Браун-Рэмзи, аспирант-историк Браунского университета, ещё старшеклассником на фоне развода родителей в 2015 году стал проводить все больше времени онлайн. Тогда он наткнулся на Джордана Питерсона – доктора психологических наук, правого мыслителя и блогера. С экрана компьютера Питерсон предложил Джастину то, чего ему как раз не хватало: сочувствие, понимание и советы, как улучшить жизнь. А вместе с этим – рассуждения о «величии западной цивилизации», вреде «культуры отмены» и так далее.

Вскоре алгоритмы YouTube стали заваливать Джастина рекомендациями других правых блогеров и политиков. Через некоторое время, пишет Джастин, весь контент, который он потреблял, состоял из правых и ультраправых блогеров и авторов. В итоге он стал ежедневно участвовать в спорах под видео и старался опровергнуть «леваков».

Джастин рассорился с друзьями на почве споров о расизме, правах трансгендерных людей и прочем, что ещё больше изолировала его в своей онлайн-идеологии. Выбраться из этого пузыря, восстановить социальные связи и изменить радикальные взгляды ему помогло образование. Но, как отмечает Insider, так везёт не всем.

Кроличьи норы соцсетей

Джастин – пример человека, который попал в так называемый «радикализующий конвейер». В разных исследованиях и публикациях у этого феномена много названий: например, alt-right pipeline («трубопровод к альтернативным правым») или rabbit hole («кроличья нора»).

Суть этих конвейеров в том, что человек с неустойчивыми взглядами попадает в поток контента, что автоматически подбирают алгоритмы. И со временем взгляды пользователя сильно меняются. Особенно это было заметно в начале пандемии COVID-19: за первые месяцы число подписчиков, которые выступают против вакцины, выросло на 19%, и вскоре эти сообщества переросли в ультраправые группы сторонников теорий заговора.

Unsplash: Andrej Lišakov

Как алгоритмы соцсетей используют в политике?

Онлайн-платформы демонстрируют разные шаблоны, но в итоге, намеренно или нет, способствуют росту именно правого контента, сообщает Insider.

Американский научный журнал PNAS опубликовал исследование Twitter, которое провели ещё до покупки платформы Илоном Маском. Исследование говорит, что твиты правых политиков и изданий усиливались в домашних лентах больше, чем твиты левых источников, – в шести из семи изученных стран, включая США, Великобританию и Канаду.

Исследование Global Witness за февраль 2025 года, показывает, что домашние ленты в TikTok и Twitter (Х) в Германии рекомендовали ультраправый контент в преддверии федеральных выборов. В TikTok 78% всех политических рекомендаций касались контента, который связан с AfD (немецкая политическая партия ультраправой популистской идеологии), – в то время как реальная поддержка партии не превышала 20%.

Нет, Патрик. AfD – не альтернатива
Unsplash: Julia Taubitz

Шведский проект Influence Industry Project опубликовал исследование, в котором проанализировал TikTok-стратегию политика от крайне правой партии и премьер-министра Италии Джорджи Мелони. Авторы пришли к выводу, что для привлечения молодой аудитории политик использовала на платформе ряд приёмов, характерных и для других правых движений.

Тактика Джорджи Мелони оказалась особенно успешной для захвата молодой аудитории. Она строится на юморе, принципе «сетевой близости» и попытке «нормализовать» крайне правые месседжи через неформальную подачу простой «женщины из народа».

Основные темы роликов Мелони: партия «Братья Италии», доходы, минимальная заработная плата, миграция, традиционные ценности, семья. Однако все они освещаются под определённым углом. Например, в одном из видео политик категорично осуждает суррогатное материнство, заявляя, что «матки не могут быть сданы в аренду, а дети не товар, продающийся без рецепта». По мнению авторов исследования, это политика дискриминации, которая лишает многие семьи возможности иметь детей.

«Алгоритмы соцсетей играют на естественном стремлении человека искать и лучше воспринимать информацию, которая поддерживает его убеждения» – утверждают социологи и психологи, пишет Insider.

Поэтому, чтобы поддерживать интерес и вовлеченность, алгоритмы постоянно предлагают пользователям контент, который подходит их позициям. Те, кто интересуется крайне правыми политиками, будет получать в рекомендациях такой же крайне правый контент. Это часто называют «пузырем фильтров» – искусственно созданным информационным пространством, где все друг с другом согласны, а противоречивую информацию игнорируют.

Unsplash: Ahmet Kurt

Почему люди поддаются алгоритмам?

В стрессе человек может переоценивать своё положение и видеть его в худшем свете, чем это есть на самом деле. Полагать, что будет ещё хуже. Страх перед бедой может усиливать радикальные взгляды. В панике люди пытаются найти ответы и приручить хаос. Как раз в этой ситуации выигрывают радикальные спикеры. Они дают быстрые ответы.

Научный сотрудник Оксфорда Нил Леви, считает, что главная причина заблуждений это:

  • Доверие к фейкам в соцсетях. Особенно если их продвигают алгоритмы и другие пользователи;
  • Вытеснение надёжных источников. Люди чаще читают пересказ новости от блогера, а не саму новость;
  • Желание упростить сложные темы. Например, через эмоциональные истории и чёрно-белое мышление.

Людям приятнее слушать не просто единомышленников, а тех, чьи взгляды ещё радикальнее их собственных. И консерваторы, и либералы чаще интересовались мнениями более крайних представителей своей партии, выяснил в своё исследовании журнал Scientific American.

«Радикальный собеседник предлагает свежие, убедительные аргументы для будущих споров. Во времена бессилия и безнадежности крайние идеи приходят на помощь, успокаивают и предлагают может быть суровое, но решение», сообщают журналисты Scientific American.

Чтобы избежать эхо-камер, нужно сознательно расширять круг источников информации, пересматривать свои убеждения, признавать свои ошибки и быть готовым слушать другие мнения – обладать навыком интеллектуальной скромности.

Британский журнал Vox выделяет основные шаги к интеллектуальной скромности:

  • признать, что наш ум не всегда точен и мы можем не замечать собственного невежества;
  • понимать, что признание ошибки не ведёт к наказанию, а требует смелости и поддержки общества;
  • помнить, что интеллектуальная скромность не убережёт от всех ошибок, поэтому важно внимательно выбирать свои убеждения.

Как обнулить алгоритмы соцсетей?

Закон о цифровых услугах (Digital Services Act) в ЕС требует от платформ раскрывать, как работают их алгоритмы, и проводить независимые проверки. Он вступил в полную силу в феврале 2024 года. Критики считают, что он все еще недостаточно прозрачный, сторонники более жесткого контроля предлагают использовать «этикетки» для алгоритмов, которые  будут раскрывать пользователям их ключевые параметры. Кто-то же, наоборот, настаивает, что закон ограничивает свободу платформ и пользователей.

Однако, как подчеркивается в докладе генерального прокурора США, правовые реформы не успевают за скоростью развития системам ИИ. Но есть возможность и самостоятельно контролировать контент, который вы получаете в соцсетях.

Instagram

Чтобы сбросить свои предпочтения, нужно:

  1. зайти в настройки;
  2. найти раздел «Что вы видите» и нажать на вкладку «Настройки контента»;
  3. нажать на кнопку «Сбросить предлагаемый контент»;
  4. оставить или удалить аккаунты, на которые подписан пользователь;
  5. выбрать интересные темы;
  6. нажать на кнопку «Сбросить предлагаемый контент».

YouTube

Если вам не нравятся рекомендации и поиск в YouTube, можно обнулить настройки. Для этого:

Очистите историю просмотра и поиска

  1. Зайдите в настройки аккаунта YouTube;
  2. Перейдите в раздел «История»;
  3. Очистите историю просмотра – это уберёт влияние просмотренных видео на алгоритмы;
  4. Очистите историю поиска – поисковые запросы больше не будут влиять на подбор контента;

Если какой-то ролик вам не подходит, нажмите «Не интересует», а чтобы скрыть все видео с конкретного канала, выберите «Не рекомендовать видео с этого канала». Так вы сможете управлять темами и интересами, чтобы рекомендации стали точнее.

TikTok

Если вы хотите обновить свою ленту «Рекомендации» и начать с нуля, можно выполнить сброс.

Сброс через настройки:

  1. Откройте TikTok и перейдите в раздел «Профиль».
  2. Нажмите на значок меню (☰) в правом верхнем углу.
  3. Перейдите в «Настройки и конфиденциальность», а затем «Предпочитаемый контент».
  4. Выберите «Сброс ленты рекомендаций» и подтвердите действие. Отменить его будет невозможно.

После этого TikTok покажет популярный контент, а ваши действия: лайки, комментарии и другое – помогут алгоритмам заново настроить подборку под ваши интересы.

Актуальное

Лучшее на Соли