Компания-разработчик искусственного интеллекта OpenAI объявила о старте работы комитета по безопасности и охране своих моделей. Его основными задачами станет контроль за работой совета директоров и надзор за запуском новых моделей с ИИ.
Ключевые факты
- 16 сентября компания OpenAI написала в своём блоге о создании комитета по безопасности и охране своих моделей с искусственным интеллектом.
- В комитет вошли директор отдела машинного обучения университета Карнеги-Меллона Зико Колтер, генеральный директор социального сервиса для обмена знаниями Quora Адам Д’Анджело, а также генерал армии США в отставке Пол Накасоне и Николь Селигман, бывший вице-президент и главный юрисконсульт корпорации Sony.
- Основной задачей комитета станет контроль работы новых моделей ИИ, а тажке сотрудничество с различными независимыми организациями и лабораториями для оценки безопасности технологий. Ещё одно направление – демонстрация систем охраны данных моделей ИИ.
- Однако, как сообщила редакция американского медиа о технологиях The Verge, члены комитета по безопасности OpenAI также являются членами более широкого совета директоров компании, поэтому неясно, насколько независим созданный комитет. Сэм Альтман, исполнительный директор OpenAI, ранее также был в комитете по безопасности, но теперь в него не входит. Редакция запросила комментарий по поводу независимости комитета и ухода Сэма Альтмана, однако пока не получила ответ.
Бэкграунд
Напомним, что в июле компанию OpenAI раскритиковали из-за проблем с протоколами безопасности. Газета The Washington Post опубликовала информацию от анонимного источника в OpenAI о том, что при запуске модели GPT-4 Omni тест по безопасности искусственного интеллекта был провален.
Автор новости: Тимофей Петрищенко
Источник: OpenAI
Читайте больше новостей медиасферы здесь
Подпишитесь на соцсети «Соли», чтобы не пропустить другие тексты