EzAudio
1.0.0

? Ezaudio est un modèle de génération de texte à audio basé sur la diffusion. Conçu pour les applications audio du monde réel, Ezaudio rassemble une synthèse audio de haute qualité avec des demandes de calcul plus faibles.
? Jouez avec Ezaudio pour la génération de texte à audio, l'édition et la déainte: Ezaudio Space
? Ezaudio-ControlNet est disponible: Ezaudio-Controlnet Space
Clone le référentiel:
git clone [email protected]:haidog-yaqub/EzAudio.git
Installez les dépendances:
cd EzAudio
pip install -r requirements.txt
Télécharger CheckPonts (facultatif): https://huggingface.co/opensend/ezaudio
Vous pouvez utiliser le modèle avec le code suivant:
from api . ezaudio import EzAudio
import torch
import soundfile as sf
# load model
device = 'cuda' if torch . cuda . is_available () else 'cpu'
ezaudio = EzAudio ( model_name = 's3_xl' , device = device )
# text to audio genertation
prompt = "a dog barking in the distance"
sr , audio = ezaudio . generate_audio ( prompt )
sf . write ( f' { prompt } .wav' , audio , sr )
# audio inpainting
prompt = "A train passes by, blowing its horns"
original_audio = 'ref.wav'
sr , audio = ezaudio . editing_audio ( prompt , boundary = 2 , gt_file = original_audio ,
mask_start = 1 , mask_length = 5 )
sf . write ( f' { prompt } _edit.wav' , audio , sr )Si vous trouvez le code utile pour vos recherches, veuillez envisager de citer:
@article { hai2024ezaudio ,
title = { EzAudio: Enhancing Text-to-Audio Generation with Efficient Diffusion Transformer } ,
author = { Hai, Jiarui and Xu, Yong and Zhang, Hao and Li, Chenxing and Wang, Helin and Elhilali, Mounya and Yu, Dong } ,
journal = { arXiv preprint arXiv:2409.10819 } ,
year = { 2024 }
}Certains codes sont empruntés ou inspirés par: U-VIT, Pixel-Art, Huyuan-Dit et Audio stable.