EzAudio
1.0.0

? Ezaudio ist ein diffusionsbasiertes Modell zu Audio-Generation. Ezaudio wurde für reale Audioanwendungen entwickelt und vereint eine hochwertige Audio-Synthese mit niedrigeren Rechenanforderungen.
? Spielen Sie mit Ezaudio für Text-to-Audio-Generation, Bearbeitung und Inpainting: Ezaudio Space
? Ezaudio-Controlnet ist verfügbar: Ezaudio-Controlnet Space
Klonen Sie das Repository:
git clone [email protected]:haidog-yaqub/EzAudio.git
Installieren Sie die Abhängigkeiten:
cd EzAudio
pip install -r requirements.txt
Download CheckPonts (optional): https://huggingface.co/opensound/ezaudio
Sie können das Modell mit dem folgenden Code verwenden:
from api . ezaudio import EzAudio
import torch
import soundfile as sf
# load model
device = 'cuda' if torch . cuda . is_available () else 'cpu'
ezaudio = EzAudio ( model_name = 's3_xl' , device = device )
# text to audio genertation
prompt = "a dog barking in the distance"
sr , audio = ezaudio . generate_audio ( prompt )
sf . write ( f' { prompt } .wav' , audio , sr )
# audio inpainting
prompt = "A train passes by, blowing its horns"
original_audio = 'ref.wav'
sr , audio = ezaudio . editing_audio ( prompt , boundary = 2 , gt_file = original_audio ,
mask_start = 1 , mask_length = 5 )
sf . write ( f' { prompt } _edit.wav' , audio , sr )Wenn Sie den Code für Ihre Forschung nützlich finden, sollten Sie sich angeben:
@article { hai2024ezaudio ,
title = { EzAudio: Enhancing Text-to-Audio Generation with Efficient Diffusion Transformer } ,
author = { Hai, Jiarui and Xu, Yong and Zhang, Hao and Li, Chenxing and Wang, Helin and Elhilali, Mounya and Yu, Dong } ,
journal = { arXiv preprint arXiv:2409.10819 } ,
year = { 2024 }
}Einige Codes werden aus geliehen oder inspiriert von: U-vit, Pixel-Art, Huyuan-dit und stabiles Audio.