daniilshat daniilshat
/ habr.com

Разработчики выпустили нейросеть See-2-Sound для генерации звуков окружения по картинке или видео

Исследователи Университета Торонто представили See-2-Sound — нейросеть для генерации звуков окружения по картинке или видео.

Модель машинного обучения не только создаёт подходящую дорожку, но и расставляет источники звука в пространстве для создания эффекта присутствия.See-2-Sound работает в несколько этапов:Нейросеть получает на вход изображение, анимацию или видео и оценивает источники.

Тут модель пытается понять, какие объекты могут издавать звуки и природу этих звуков.На основе полученных данных генерируется звук.

Читать на habr.com
Сайт imag.one - агрегатор новостей из открытых источников. Источник указан в начале и в конце анонса. Вы можете пожаловаться на новость, если находите её недостоверной.

Сейчас читают

DMCA