Сотрудники OpenAI снова заявили о проблемах с безопасностью продуктов компании

15 июля 2024

Компания-разработчик ИИ OpenAI вновь подверглась критике из-за проблем с протоколами безопасности. Газета The Washington Post опубликовала информацию от анонимного источника в OpenAI о том, что тест по безопасности искусственного интеллекта был провален. Это случилось вскоре после выхода открытого письма некоторых бывших и нынешних сотрудников компании с требованиями снизить риски от использования ИИ.

Почему это важно для медиа? Мы часто пишем, как ИИ помогает журналистам в работе, однако всегда подчеркиваем, что принцип работы этих систем не изучен полностью. Поэтому нельзя использовать ИИ для обработки секретной или сверхважной информации. А результаты его работы, даже если они касаются простого поиска информации, всегда нужно перепроверять.

Ключевые факты

  • The Washington Post со ссылкой на анонимный источник в OpenAI утверждает, что компания выпустила модель искусственного интеллекта ChatGPT-4o без необходимой проверки безопасности. В статье говорится, что команда чувствовала давление руководства, заставляющего проводить испытания поспешно, чтобы успеть выпустить новую модель в мае. В итоге период тестирования сократился до недели, а времени на исправления ошибок попросту не осталось.
  • Эта информация появилась после того, как в мае компания распустила команду по безопасности вместе с её соучредителем Ильёй Суцквером. Вскоре после этого ключевой исследователь OpenAI Ян Лейке ушёл в отставку, заявив, что «за последние годы культура и процессы безопасности были отодвинуты назад в угоду блестящим продуктам».
  • В июне некоторые действующие и бывшие сотрудники OpenAI подписали открытое письмо с требованием пересмотреть правила безопасности продуктов. Работники указывают на короткие сроки проверки, отсутствие гражданского контроля за разработками, а также на то, что компания гонится за большей производительностью, а не надёжностью своих технологий
  • В свою очередь пресс-секретарь OpenAI Линдси Хелд сказала, что запуск GPT-4o «не срезал углы» по безопасности. А представитель OpenAI Тая Кристиансон так прокомментировала новость изданию The Verge: «Мы гордимся нашим послужным списком по предоставлению самых эффективных и безопасных систем ИИ и верим в наш научный подход к устранению рисков».

Бэкграунд

Напомним, что вопрос о системах искусственного интеллекта поднимало и правительство США. В докладе, подготовленном по заказу Госдепартаментом в марте, говорится: «Нынешнее развитие ИИ создаёт срочные и растущие риски для национальной безопасности. Появление передового ИИ может дестабилизировать глобальную безопасность и напоминает внедрение ядерного оружия».

Источник: The Verge, The Washington Post

Читайте больше новостей медиасферы здесь