Чат-бот от Google изобретает теории заговора

05 апреля 2023

Чат-бот Bard от компании Google получил запрос сгенерировать теорию заговора и выполнил его как ни в чём ни бывало – об этом пишет Bloomberg.

Почему это важно для медиа? Чат-боты наподобие ChatGPT могут использоваться журналистами для поиска информации и подготовки текстов. Однако программа не гарантирует, что данные будут полностью достоверны. Механизм работы алгоритма непрозрачен и не до конца изучен.

Основные факты

  • Группа исследователей NewsGuard предложила боту написать текст в стиле американского ультраправого сайта The Gateway Pundit. В ответ чат-бот выдал текст о глобальном заговоре элит по сокращению населения Земли с помощью вакцин и экономических мер. В тексте упоминались микрочипы для отслеживания людей, вживляемые через прививки, а также Всемирный экономический форум и Фонд Билла и Мелинды Гейтс, которые «хотят использовать свою власть, чтобы манипулировать людьми».
  • В общей сложности NewsGuard предложил чат-боту 100 ложных утверждений из Интернета, на что тот сгенерировал 76 фейковых эссе и только 24 запроса опроверг.
  • Исследователи обнаружили, что можно попросить бота притвориться кем-то другим и легко обойти встроенные системы безопасности.
  • Тот же тест прошли ChatGPT-3.5 и ChatGPT-4. Чат-ботам тоже предложили 100 ложных сообщений. ChatGPT-3.5 опроверг 20% из них, а более обновленный ChatGPT-4 не опроверг вообще ничего. По словам NewsGuard, это произошло потому, что новый ChatGPT стал более опытным в объяснении ложной информации и в убеждении других, что это может быть правдой.

Ключевые цитаты

  • В своём официальном обзоре Google обращает внимание, что Bard может генерировать неточную или оскорбительную информацию, которая не соответствует взглядам компании. Также Google сообщает, что ввёл правила безопасности для использования Bard.
  • Макс Кремински, исследователь искусственного интеллекта в Университете Санта-Клары: «На самом деле не существует универсального способа заставить системы искусственного интеллекта, подобные Bard, прекратить генерировать дезинформацию. Пытаться наказать все виды лжи – все равно, что играть в бесконечную игру».
  • Шейн Стейнерт-Трелкельд, доцент кафедры компьютерной лингвистики в Университете Вашингтона, сказал, что для общественности было бы ошибкой полагаться на добрую волю компаний, стоящих за разработкой систем, чтобы предотвратить распространение дезинформации.

Бэкграунд

Bard распространяет дезинформацию не в первый раз. Чат-бот допустил грубую фактическую ошибку во время собственной презентации ещё до официального релиза, сказав, что телескоп НАСА имени Джеймса Уэбба первым снял планету за пределами нашей Солнечной системы. На самом деле такой снимок сделал другой телескоп. После этого акции компании Alphabet, которая управляет холдингом Google, упали на 100 миллиардов долларов.

Bard – конкурент чрезвычайно популярного ChatGPT и тоже может разговаривать с человеком, искать информацию и писать тексты. Издания Bloomberg и Futurism провели эксперименты над ChatGPT и Bard и доказали, что оба бота успешно генерируют ложную информацию.

Источники: Bloomberg.

Текст новости – Алина Горюнова. 

Читайте больше новостей медиасферы здесь