Можно ли заставить искусственный интеллект работать вместо журналистов? В прошлом году в мировом медиасообществе прогремело сразу несколько скандалов: авторитетные издания уличили в тайной публикации материалов, сгенерированных ИИ. Собрали пять громких историй, когда плохо сработали нейросети, а отвечать пришлось редакциям.
«Даёт ужасные советы людям, которые пытаются разобраться в финансах»
Ежемесячная аудитория американского медиа Computer Network – 36 миллионов пользователей. На сайте публикуют новости технологий, обзоры гаджетов, материалы от экспертов индустрии и бизнеса. Одна из рубрик CNET – Money. В ней эксперты делятся новостями и советами, «чтобы помочь читателям принимать более эффективные финансовые решения».
Эта рубрика и привлекла внимание журналистов Futurism. В 2023 году издание опубликовало разоблачительный материал «CNET тайно размещает статьи, полностью сгенерированные ИИ». История разлетелась по мировым СМИ, а Washington Post и вовсе назвал её «журналистской катастрофой».
Выяснилось, что в начале 2023-го в рубрике CNET стали появляться материалы, написанные ИИ ещё в ноябре 2022. Однако никакого официального заявления по этому поводу издание не делало, а автором подобных текстов загадочно указывало «технологию автоматизации». Но главной проблемой оказалось даже не это. Материалы Computer Network были полны неточностей.
На самом деле это не так: называть заработком общую сумму – вклад плюс проценты – некорректно. Да, действительно в конце года сумма будет составлять 10 300, но лишь 300 долларов можно считать прибылью.
«У финансово грамотных людей хватило бы здравого смысла не принимать это за чистую монету, – комментирует материал исполнительный редактор Futurism. «Но статья написана на настолько базовом уровне, что в первую очередь будет интересна тем, у кого крайне мало информации о личных финансах. Она дает ужасные советы непосредственно людям, которые хотят разобраться в финансах».
После волны обвинений редакторка CNET Конни Гульельмо опубликовала на сайте издании текст, в котором рассказала, что медиа начало тестировать ИИ в ноябре и успело выпустить 75 материалов. «Каждая статья пересматривается, проверяется и корректируется редактором с тематическим опытом – сказала она. – Мы продолжим тестировать новые инструменты, чтобы определить, подходят ли они для нашего бизнеса».
Уже через полгода, в июне 2023, на сайте CNET опубликовали текст, описывающий новую политику издания. В нём сообщалось, что медиа больше не планирует публиковать истории, полностью сгенерированные ИИ. Также редакция издания, пишет The Verge, откорректировала часть материалов, в которых нашла ошибки.
«Если вы давно работаете с текстами, то можете отличить, что создано роботом, а что нет»
В августе того же 23-го года в СМИ обсуждалось уже другое ИИ-происшествие. Локальная газета The Columbus Dispatch, которая вляется частью медиахолдинга Gannet, опубликовала материал о прошедшем в Колумбусе (Огайо, США – прим.) футбольном матче. Но, кажется, забыла вычитать его и отформатировать. Текст начинался так:
Кроме этого материала, газета выпустила ещё несколько сомнительных спортивных репортажей. Тексты критиковали за странные формулировки, повторяющиеся фразы, однобокую подачу и отсутствие важных деталей. Оказалось, медиахолдинг некоторое время тестировал ИИ-инструмент для локальных газет. Партнёром Gannet в экспериментах стала компания Lede AI.
После произошедшего СЕО компании заявил CNN: «В репортажах действительно были существенные проблемы. Обратная связь, которую мы получили, обоснована». Но потом он добавил, что считает частичную автоматизацию контента неизбежным будущим локальных медиа. Потому что она освобождает ресурсы редакции и даёт возможность заниматься настоящей журналистикой.
Тем не менее, после случившегося в Gannet решили прекратить эксперименты с ИИ. Правда, ненадолго. Через два месяца медиахолдинг снова уличили в публикации синтетичексих текстов. Но в этот раз компания опровергла обвинения и заявила, что упомянутые материалы писали их внешние партнёры.
И вот, спустя почти год, в мае 2024, медиахолдинг уже официально запустил свою новую ИИ-программу. Теперь журналисты издательства могут привлекать ИИ для написания саммари текстов. Пользоваться ли этой возможностью, каждый автор решает сам. Как выяснил The Verge, языковую модель не планируют применять непосредственно для написании статей, а перед публикацией все тексты и саммари будут вычитывать редакторы.
«Трудно «влиться» в волейбол, особенно без настоящего мяча»
«Николь — учительница первого класса, которая пришла в сферу образования по одной простой причине: ей нравится помогать людям», – так описал одну из своих авторок американский журнал Sport Illustrated.
В ноябре прошлого года на сайте издания стали появляться обзоры от экспертов, ранее не знакомых аудитории. Кроме Николь Меррифилд, публиковать материалы стали отец-домохозяин Домино Абрамс, фитнес-гуру Сора Танака. Каждый – «эксперт в своей области, которому хочется доверять».
Однако, как позже выяснилось, ни один из этих авторов не существует в реальности – а «проверенные опытом» обзоры на продукты пишет искусственный интеллект.
Очередную неудачную попытку медиа заставить ИИ работать вместо людей обнаружил журнал Futurism. Издание нашло десятки материалов, которые были опубликованы под фейковыми именами.
После разоблачения издательство журнала дало комментарий Futurism. Компания рассказала, что упомянутые тексты писал их внешний партнёр AdVon – тот самый, который помогал Gannet в создании маркетинговых материалов. «Они заверили нас, что эти статьи были написаны и отредактированы людьми. AdVon использует программной обеспечение, которое борется с плагиатом и контентом, сгенерированным ИИ», – сказали в компании. Но тексты с сайта Sport Illustrated на всякий случай удалили и уверили, что проведут внутреннее расследование.
Тот скандал широко освещался и сильно испортил репутацию Sport Illustrated – издания, которое всегда воспринималось как авторитетный источник спортивной информации. После случившегося издательство уволило СЕО Sport Illustrated, а в январе этого года объявило о массовом сокращении штата.
«Я знаю, о чём вы думаете»
В начале прошлого года диджитал-медиа Buzzfeed откровенно поделилось с читателями планами публиковать ИИ-материалы. СЕО Buzzfeed Джона Перетти тогда сказал: «Я думаю, что есть два пути развития искусственного интеллекта в цифровых медиа. Один из них очевидный, но грустный – многие люди будут использовать технологии для экономии средств, рассылки спама и SEO-статей низкого качества».
Сам Buzzfeed поначалу как будто выбрал другой вариант. На сайте стали появляться викторины, созданные с помощью ИИ: от тематических квизов про вселенную Гарри Поттера до тестов на профориентацию. Читатели сообщали информацию о себе, алгоритм анализировал её и выдавал персонализированный ответ.
Проект оказался успешным и помог Buzzfeed улучшить вовлечённость. Но уже в марте того же года на сайте появилась серия трэвел-гайдов – около 40 публикаций, которые были удивительно похожи друг на друга, потому что в них использовались идентичные речевые обороты. Вот некоторые примеры:
«Я знаю, о чем вы думаете: «Карибские острова – это просто многолюдные курорты, разве не так?» – в материале об острове Синт-Мартен на Карибах.
«Я знаю, о чем вы думаете: больше не всегда лучше», — в материале о Провиденсе, городе в американском штате Род-Айленд.
«Я знаю, о чем вы думаете: разве Стокгольм – это не тот морозный, мрачный город на севере, который никому не нужен?» – в тревел-гайде по Стокгольму.
В строке автора издание указало робота Buzzy – «творческого помощника, который пишет тексты с использованием ИИ». Однако уточнило, что Buzzy вдохновляется человеческими идеями.
BuzzFeed разослал сотрудникам из других, не редакционных, отделов анкету, в которой попросил написать о любимых недооцененных туристических местах. Затем с ответами поработал Buzzy, а результаты его труда – тревел-гайды по неочевидным локациям – опубликовали на сайте.
Любопытно, что поначалу СЕО Buzzfeed критиковал медиа за использований ИИ в создании SEO-статей низкого качества, а уже через пару месяцев его издание опубликовало именно такие тексты.
«Катастрофа для морального духа сотрудников»
Последний пример из нашей подборки точно не понравится фанатам «Звёздных войн». Год назад ещё одно медиа было поймано на публикации «искусственных» текстов. На сайте Gizmodo разместили материал «Хронологический список фильмов и сериалов «Звездных войн» с подзаголовком «Порядок просмотра саги».
«Один из моих друзей-знатоков «Звёздных войн» сказал, что смотреть фильмы в «хронологическом» порядке – это очень странно, – пишет Зишан Алим, автор статей и редактор MSNBC. – «Но среднестатистический пользователь вряд ли поймет, что эта статья была создана искусственным интеллектом; единственной подсказкой будет подпись «Gizmodo Bot», которую очень легко не заметить. Итак, хорошая ли это статья? Нет. Если бы я получил этот материал как редактор, я бы отправил его обратно автору с требованием полностью переписать».
Тексты, созданные ИИ, появились на нескольких вебсайтах издательства G/O Media. Они тоже были полны плохих советов, странных фраз и воды. Но, как ни странно, в заявлении для The Washington Post представитель медиахолдинга Марк Нешис сказал: «Мы считаем, что испытание ИИ прошло успешно». А редакционный директор G/O не менее оптимистично поделился с Vox: «Это определенно то, чем мы хотим заниматься больше».
В G/O Media полагают, что нейросети изменят медиаиндустрию и игнорировать его было бы ужасной ошибкой. В издательстве планируют использовать ИИ и для других задач – проведения исследований и подготовки маркетинговых планов для рекламодателей.
При этом в G/O Media утверждают, что не собираются заменять журналистов искусственным интеллектом, их цель, напротив, нанять больше авторов, которые смогут использовать ИИ как помощника в работе. А ещё в издательстве заверили, что больше не станут выпускать материалы, которые не были тщательно вычитаны редакторами-людьми.
Есть и другие, более удачные примеры использования технологий искусственного интеллекта. Читайте о них в наших текстах: