OpenAI создала комитет по безопасности своих моделей ИИ

17 сентября 2024

Компания-разработчик искусственного интеллекта OpenAI объявила о старте работы комитета по безопасности и охране своих моделей. Его основными задачами станет контроль за работой совета директоров и надзор за запуском новых моделей с ИИ.

Ключевые факты

  • 16 сентября компания OpenAI написала в своём блоге о создании комитета по безопасности и охране своих моделей с искусственным интеллектом.
  • В комитет вошли директор отдела машинного обучения университета Карнеги-Меллона Зико Колтер, генеральный директор социального сервиса для обмена знаниями Quora Адам Д’Анджело, а также генерал армии США в отставке Пол Накасоне и Николь Селигман, бывший вице-президент и главный юрисконсульт корпорации Sony.
  • Основной задачей комитета станет контроль работы новых моделей ИИ, а тажке сотрудничество с различными независимыми организациями и лабораториями для оценки безопасности технологий. Ещё одно направление – демонстрация систем охраны данных моделей ИИ.
  • Однако, как сообщила редакция американского медиа о технологиях The Verge, члены комитета по безопасности OpenAI также являются членами более широкого совета директоров компании, поэтому неясно, насколько независим созданный комитет. Сэм Альтман, исполнительный директор OpenAI, ранее также был в комитете по безопасности, но теперь в него не входит. Редакция запросила комментарий по поводу независимости комитета и ухода Сэма Альтмана, однако пока не получила ответ.

Бэкграунд

Напомним, что в июле компанию OpenAI раскритиковали из-за проблем с протоколами безопасности. Газета The Washington Post опубликовала информацию от анонимного источника в OpenAI о том, что при запуске модели GPT-4 Omni тест по безопасности искусственного интеллекта был провален.

Автор новости: Тимофей Петрищенко 

Источник: OpenAI

Читайте больше новостей медиасферы здесь