04:20, 26 июня 2024

Разработчики выпустили нейросеть See-2-Sound для генерации звуков окружения по картинке или видео

Исследователи Университета Торонто представили See-2-Sound — нейросеть для генерации звуков окружения по картинке или видео. Модель машинного обучения не только создаёт подходящую дорожку, но и расставляет источники звука в пространстве для создания эффекта присутствия.

Читать на сайте

See-2-Sound работает в несколько этапов:

Нейросеть можно установить по инструкции в репозитории или запустить в контейнере. Инференс модели выглядит следующим образом:

import see2soundconfig_file_path = "default_config.yaml"model = see2sound.See2Sound(config_path = config_file_path)model.setup()model.run(path = "test.png", output_path = "test.wav")

Исследователи опубликовали текст работы и код, а на сайте See-2-Sound доступны примеры. На платформе Hugging Face есть демо, в котором можно попробовать нейросеть на собственных входных данных.

Примеры работы нейросети

Обсудить