ИИ от Google учится создавать саундтреки для видео

18 июня 2024

Лаборатория DeepMind от Google разрабатывает технологию на основе ИИ, которая сможет создавать саундтреки, звуковые эффекты и диалоги для видео. Новый инструмент учится генерировать аудио, соответствующее атмосфере и контексту видео. Однако точной даты релиза ещё нет.

Ключевые факты

  • В основе технологии – инструмент V2A (сокращение от «видео-к-аудио»), который создаёт музыку и другие звуковые эффекты, используя необходимое видео и текстовое описание к нему, например, «медузы под водой, морская жизнь, океан».
  • Инструмент пытается соответствовать персонажам и происходящему на видео. DeepMind описывает это так: «Наша технология связывает конкретные аудиособытия с различными визуальными сценами, реагируя на информацию, предоставленную в аннотациях или стенограммах».
  • Ожидается, что в будущем ИИ сможет синхронизировать звуки с видео даже без текстового описания. Однако перед тем, как V2A станет доступен всем, он должен пройти испытания по безопасности. Поэтому дата релиза пока неизвестна.

Бэкграунд

Напомним о других технологиях с ИИ, которые могут помочь в создании видео. К примеру, видеоплатформа Vimeo внедрила инструменты для написания сценариев и титров для суфлера. Кроме того, Adobe Inc добавил новые функции для редактирования видео. Однако этот функционал на обеих платформах платный.

Источник: TechCrunch

Читайте больше новостей медиасферы здесь