Крупные разработчики, учёные и эксперты отрасли намерены сообща выработать комплексные меры безопасности для развёртывания и использования систем искусственного интеллекта.
Ключевые факты
- 18 июля на Форуме по безопасности в Аспене ряд крупных компаний – таких, как Google, OpenAI, Microsoft, Amazon, Nvidia, Intel – заявили о создании Коалиции за безопасный искусственный интеллект (CoSAI).
- Сообщается, что CoSAI объединяет широкий круг лидеров отрасли, учёных и других экспертов, которые создадут экосистему для обмена данными с открытым исходным кодом и инструментами для разработки безопасного ИИ.
- Первым шагом CoSAI сформирует три направления работы:
- повышение безопасности цепочек поставок программного обеспечения для систем ИИ;
- подготовка компаний-разработчиков к меняющемуся ландшафту кибербезопасности;
- разработка передовых стандартов для оценки рисков, связанных с ИИ.
Основные цитаты
- Хизер Адкинс, вице-президент Google по безопасности, заявил: «CoSAI поможет большим и малым организациям безопасно и ответственно интегрировать ИИ, используя его преимущества и одновременно снижая риски».
- Омар Сантос, член совета директоров OASIS Open, сказал: «В CoSAI мы будем использовать наш объединённый опыт и ресурсы для ускоренной разработки надёжных стандартов и практик [по работе с ИИ], которые принесут пользу всей отрасли».
Бэкграунд
Вопросы безопасности систем искусственного интеллекта обсуждают не реже, чем новые разработки в этой области. Так, буквально на этой неделе крупнейший разработчик OpenAI в очередной раз подвергся критике из-за проблем с протоколами безопасности.
Напомним, что в Евросоюзе весной был одобрен первый в мире Закон об искусственном интеллекте.
Источник: OASIS Open
Читайте больше новостей медиасферы здесь
Подпишитесь на соцсети «Соли», чтобы не пропустить другие тексты