Нейросети ворвались в нашу жизнь и разделили её на «до» и «после». Хорошо ли мы представляем, каким это «после» будет – полным новых возможностей или серьёзных испытаний?
Пройдите наш тест и узнайте, подружитесь ли вы с искусственным интеллектом.
Что из этого может делать ChatGPT?
ChatGPT – чат-бот, который имитирует человеческое общение и отвечает на вопросы, используя собственные базы и информацию из открытых источников. То есть работает в основном с текстами. Речь генерируют Murf AI и humainism, а изображения – DALL-e, Midjourney и Stable Diffusion.
С какой задачей ИИ справится лучше человека?
ИИ ещё не способен качественно проверять факты, не говоря о тонких материях вроде редактирования. Но если нужно найти информацию, которая уже известна и не требует серьёзной верификации, и скомпелировать её в связный читабельный текст, то тут машине равных нет.
Что не так с текстами ChatGPT?
Частые фактические ошибки в текстах ChatGPT и похожих чат-ботов – одна из главных причин, почему они не могут заменить журналистов и копирайтеров. По крайней мере, пока.
А если попросить чат-бот изобрести теорию заговора?
Ещё как напишет! Чат-бот Bard от Google в ответ на запрос исследователей выдал текст о глобальном заговоре элит по сокращению населения Земли с помощью вакцин и экономических мер. Вышло не хуже, чем у какого-нибудь пропагандиста.
Может ли ИИ сделать материалы журналистов более объективными?
Машинное обучение уже помогает редакциям выявлять и устранять предвзятости в текстах, фото, видео, аудио и соцсетях. К примеру, программа Dbias на языке Python обнаруживает необъективный текст в статьях, после чего автоматически предлагает лучший подход.
Как ChatGPT работает с источниками информации?
Из каких источников ChatGPT получает данные, насколько эти источники надёжные и легально ли их вообще использовать, мы можем только догадываться. Как раз из-за авторских прав в Германии призывают ужесточить правила работы ChatGPT.
Понимаем ли мы, как ChatGPT принимает решения?
Мы не знаем, как нейросети принимают решения и почему выдают нам то, что выдают. По словам профессора компьютерных наук Городского университета Нью-Йорка Льва Мановича, непрозрачная механика – проблема не только ChatGPT, но и многих других программ.
Хорошо ли защищены данные пользователей ChatGPT?
С кибербезопасностью у ChatGPT не всё в порядке. В конце марта произошла утечка: одни пользователи чат-бота смогли увидеть личную информацию других. Из-за этого инцидента Италия временно блокировала работу ChatGPT.
А что там с законом о регулировании систем ИИ?
ЕС разрабатывает первый в мире закон о регулировании систем искусственного интеллекта. Правда, эксперты говорят, что могут пройти годы, прежде чем закон вступит в силу.
Как новостным редакциям угнаться за развитием технологий?
Не стоит торопиться внедрять высокие технологии в, возможно, не самые современные медиамеханизмы. Но и освоить их все самостоятельно просто нереально. Лучшее решение для редакций – сотрудничать. Так делают, например, в проекте JournalismAI Лондонской школы экономики.