Лаборатория DeepMind от Google разрабатывает технологию на основе ИИ, которая сможет создавать саундтреки, звуковые эффекты и диалоги для видео. Новый инструмент учится генерировать аудио, соответствующее атмосфере и контексту видео. Однако точной даты релиза ещё нет.
Ключевые факты
- В основе технологии – инструмент V2A (сокращение от «видео-к-аудио»), который создаёт музыку и другие звуковые эффекты, используя необходимое видео и текстовое описание к нему, например, «медузы под водой, морская жизнь, океан».
- Инструмент пытается соответствовать персонажам и происходящему на видео. DeepMind описывает это так: «Наша технология связывает конкретные аудиособытия с различными визуальными сценами, реагируя на информацию, предоставленную в аннотациях или стенограммах».
- Ожидается, что в будущем ИИ сможет синхронизировать звуки с видео даже без текстового описания. Однако перед тем, как V2A станет доступен всем, он должен пройти испытания по безопасности. Поэтому дата релиза пока неизвестна.
Бэкграунд
Напомним о других технологиях с ИИ, которые могут помочь в создании видео. К примеру, видеоплатформа Vimeo внедрила инструменты для написания сценариев и титров для суфлера. Кроме того, Adobe Inc добавил новые функции для редактирования видео. Однако этот функционал на обеих платформах платный.
Источник: TechCrunch
Читайте больше новостей медиасферы здесь
Подпишитесь на соцсети «Соли», чтобы не пропустить другие тексты