30 мая учёные и лидеры технологической отрасли выпустили заявление, в котором предупредили об опасностях развития искусственного интеллекта (ИИ). «Снижение риска исчезновения [человечества] из-за искусственного интеллекта должно стать глобальным приоритетом наряду с [решением] других общественно значимых проблем – таких, как пандемия и ядерная война», — говорится в заявлении.
Ключевые факты
- Текст заявления опубликован на сайте «Центра безопасности искусственного интеллекта», некоммерческой организации из Сан-Франциско.
- Среди подписавших: Сэм Олтмен, генеральный директор OpenAI, компании-производителя ChatGPT; разработчик нейросетей и «крёстный отец» искусственного интеллекта Джеффри Хинтон, который недавно покинул Google, посчитав нынешнее развитие ИИ опасным для человечества; менеджеры Microsoft и Google – техногигантов, участвующих в гонке по внедрению систем ИИ в свои продукты; а также учёные из Гарвардского, Стэнфордского и других известных университетов.
Основные цитаты
- Исполнительный директор «Центра безопасности искусственного интеллекта» Дэн Хендрикс сравнил развитие систем ИИ с действиями учёных-ядерщиков в 30-х годах прошлого века. «Никто не утверждает, что сегодня GPT-4 или ChatGPT вызывают именно такие опасения. Но мы пытаемся устранить риски заранее, чтобы потом не бороться с катастрофой постфактум», – сказал Хендрикс.
Бэкгруанд
Страхи, что продвинутый искусственный интеллект скоро станет умнее людей и выйдет из-под контроля усилились с появлением чат-ботов наподобие популярного ChatGPT. В ответ многие страны взялись за разработку правил, которые бы регулировали развитие систем ИИ, а Европарламент поддержал контроль над искусственным интеллектом на законодательной уровне.
Напоним, в конце марта некоторые крупные учёных из IT-отрасли также призывали приостановить разработки в области ИИ. Однако представители Microsoft и Google тогда отказались подписать заявление.
Источник – Associated Press.