Катя Горчинская

ИИ-дворецкий будет кормить вас «инфопомоями»

Новые привычки поиска информации вредят потребителям и подрывают медиа, от которых зависят языковые модели – считает Катя Горчинская. Её эссе вышло по-английски на сайте Reuters Institute. С разрешения автора мы публикуем перевод.

Катя Горчинская – консультант по медиаразвитию и стратегии с тридцатилетним опытом в сфере руководства редакциями, корпоративного управления, предпринимательства и институциональной трансформации. Она сотрудничает со СМИ и образовательными проектами по всему миру, помогая им модернизировать журналистику, медиаобразование и бизнес-модели.

Изображение – Artem Gilmutdinov (Unsplash.com)

Недавно на конференции в Варшаве я попросила представителей медиа и дипломатов поднять руки, если они хоть раз искали информацию с помощью генеративного ИИ (включая короткие выводы поисковиков), а потом делали любые действия на ее основе, не обращаясь к первоисточнику. Большинство рук взлетело в воздух.

Это стало прикольной живой иллюстрацией, как генеративный ИИ меняет наше отношение к фактам. С тех пор как ChatGPT стал массовым, поиск информации остается одной из трёх главных сфер его применения. Социологи в шоке наблюдают, как наши поисковые привычки меняются прямо у них на глазах.

Около 10% людей в мире используют ИИ еженедельно. Еще больше (34%), его используют в шести странах, которые изучает Reuters Institute. Этот глобальный тренд хоть пока и не распространен неравномерно, уже означает смену парадигмы. ИИ дает потрясающий, почти магический пользовательский опыт – как будто ваш личный дворецкий подаёт вам именно то, что вы сейчас хотите, на серебряном блюде.

Однако всё чаще вы будете получать от этого дворецкого «инфопомои» вместо фактов (factslop). Вместо эры информационного изобилия, ИИ, скорее всего, затруднит доступ к правде. И вместе с тем замордует институты, производящие факты, которыми сами машины могли бы кормиться. Как результат, когнитивная нагрузка, необходимая даже для поиска единого факта, станет абсолютно невыносимой.

Вот как это может произойти, и немного истории, чтобы увидеть, почему.

Как и почему это случится

В 2006 году Facebook запустил ленту новостей, сделав  продукт более «залипательным» для пользователя. Это запустило огромный сдвиг в потреблении информации. Позже основатель соцсети Марк Цукерберг объяснил свою философию. Она заключалась в том, что его платформа даёт свободу выражения мыслей всем и таким образом помогает демократии и правде. Илон Маск и многие другие позже повторяли ту же мысль как попугаи.

Но вместо этого правда «утонула». А демократические дискуссии в соцсетях захлебнулись в цунами фейков и другой дезинформации. Историк и писатель Юваль Ной Харари объясняет, почему: правда сложная и запутанная, часто неприятная и даже болезненная. Кроме того, она дорога в «производстве». Именно поэтому человечество создало целые институты, которые занимаются поиском правды: университеты, исследовательские центры, суды и, конечно же, СМИ.

А вот ложь, наоборот, легко создается и легко распространяется. Она может быть простой и соблазнительной. Благодаря алгоритмам она наводняет социальные сети и проникает в общество. «В этой конкуренции между дорогой, сложной и неприятной правдой и дешёвой, простой и привлекательной ложью побеждает ложь,»– говорит Харари.

Медиа, проигрывая борьбу за юзеров, теряли вместе с тем и рекламодателей, и финансовую устойчивость, превращаясь в отрасль в упадке. Многие сейчас полностью зависят от соцсетей и поисковых систем и в смысле трафика, и в смысле поддержки отношений с аудиторией.

И вот на сцену выходит генеративный искусственный интеллект (ИИ), технология, переворачивающая и эти правила. Теперь медиа должны думать не только о нативном контенте для соцсетей или SEO — оптимизации, но и о генеративной оптимизации (GEO), то есть о видимости своего контента для ИИ. Теперь, чтобы тебя видели люди, сперва нужно стать видимыми для машин.

Но, вместо того, чтобы воспользоваться новой возможностью, большие медиахолдинги скрывают свой контент от больших языковых моделей (LLM), а медиа поменьше и вовсе пока не осознали новый вызов.

Многие крупные игроки решили запретить ИИ-сканеры для защиты интеллектуальной собственности, когда поняли, что их контент незаконно используется для обучения языковых моделей. Некоторые СМИ в США подали в суд на OpenAI, Anthropic, Perplexity, Google, Microsoft и другие компании за нарушение прав интеллектуальной собственности. То же самое произошло в Канаде и некоторых европейских странах.

В сентябре отдельные издательства, включая Penske Media (Rolling Stone, Variety) и Hollywood Reporter, сделали новый шаг. Они подали в суд на Google за ИИ-резюме в поисковиках за то, что, по их словам, они «убивают» трафик и наносят «миллионы долларов ущерба».

Другие медиакомпании предпочли заключить сделки с крупнейшими игроками в ИИ – коллективно и по отдельности. Но если в 2024 году мы часто видели заголовки о таких сделках, то теперь их практически нет. Интерес к архивам медиакомпаний падает.

Ник Томпсон, генеральный директор The Atlantic и бывший технологический журналист, недавно заявил, что ИИ-компаниям больше не будут платить за обучающий контент: «Они платили в течение короткого периода, когда эти данные были важны для разработки ИИ. Сейчас все поменялось».

Он считает, что теперь платить будут только за актуальные новости. «Они хотят иметь доступ к свежим новостям, к последним новостям, чтобы скармливать в свои модели. Тут и будет бизнес».

Но такой «бизнес» обычно доступен только самым большим бегемотам на рынке. Средние и мелкие игроки по всему миру, и даже ведущие издатели на многих рынках, остаются в хвосте, неся убытки и теряя трафик в пользу ИИ. Часто у них нет даже ресурсов, чтобы осознать масштаб угрозы.

Что у нас сейчас

За последние два месяца я была членом жюри в нескольких грантовых конкурсах для шести десятков малых и средних СМИ, разбросанных на разных рынках. Это дало мне возможность увидеть их стратегии на ближайшие годы.

Как вы думаете, у скольки из них есть планы, связанные с ИИ, помимо базового использования в редакции? Ни у кого. Многие до сих пор борются с SEO, а о GEO просто не слышали.

Но вот попробуйте угадать, кто уже точно об этом слышал и давно это делает? Все возможные негодяи. Весной 2024 года американские исследователи цифровой безопасности Insikt Group опубликовали отчёт о российских группах влияния, которые использовали «генеративный ИИ для плагиата материалов ведущих СМИ, включая российские СМИ, Fox News, Al Jazeera, La Croix и TV5Monde».

Они создавали контент, напичкивали его российскими нарративами и распространяли через сеть веб-сайтов, чтобы любой человек мог прочесть, а роботы – подгрести. Они занялись генеративной оптимизацией, когда и термин такой был почти неизвестным.

По одной из оценок, лишь одна сеть, изученная Insikt, производит 3 миллиона фейковых новостей в год, хотя и неизвестно, сколько читателей они охватывают. Для сравнения: крупнейшее информагентство в мире Reuters ежегодно публикует около 2 миллионов материалов.

Неясно, сколько таких групп существует. Но, по исследованию News Guard, их контент уже «заразил» 10 крупных чат-ботов с ИИ, и теперь они выдают кремлёвскую пропаганду в каждом третьем ответе на ваш запрос.

Это далеко не единственное искажение (bias), заставляющее ИИ лгать и галлюционировать. В некоторые модели оно встроено намеренно – например, китайские или Грок. Кроме всего этого LLM ещё учатся лгать ради лайков и выгоды, вопреки прямым командам разработчиков.

Темное будущее

Перенесёмся на несколько лет вперёд. На базе ИИ появятся новые операционные системы. Они окутают пользователя в комфортный, персонализированный кокон, который ему никогда не придётся покидать. Чтобы удовлетворить наши информационные потребности, языковые модели будут поглощать всё, что генерируется, в режиме реального времени.

Но если весь трафик остается в коконе, это означает, что производители контента будут умирать. Кто же тогда останется на стороне поставки информации? Все, кому надо вас убедить, вам продавать, соврать или манипулировать вами. Точно не журналисты и издатели, которые вас информируют. Эти поставщики будут стряпать тонны «инфопомоев» – информации, которая выглядит достоверной, но на самом деле такой не есть.

И если вдруг вы захотите узнать, был ли молодой политик, идущий на местные выборы, замешан в коррупции, то удачи вам. Вне кокона когнитивные усилия, необходимые для поиска такого факта среди шума, будут просто безумными. А мы уже отвыкнем от привычки проверять то, что нам выдал кокон, как отвыкли ходить ногами в библиотеку в поиске книг.

Ну и теперь надо готовиться к «инфопомоям»: на вид они будут вкусные, но реальной ценности не будет никакой.

Актуальное

Лучшее на Соли