Robust_Fine_Grained_Prosody_Control
1.0.0
Implementação de Pytorch de controle prosódio robusto e refinado da síntese de fala de ponta a ponta (não oficial)
Esta implementação usa o conjunto de dados Libritts.
git clone https://github.com/keonlee9420/Robust_Fine_Grained_Prosody_Control.gitcd Robust_Fine_Grained_Prosody_Controlgit submodule init; git submodule updatesed -i -- 's,/home/keon/speech-datasets/LibriTTS_preprocessed/train-clean-100/,your_libritts_dataset_folder/,g' filelists/*.txtload_mel_from_disk=True em hparams.py e atualize os caminhos de espectrograma de melpip install -r requirements.txt python train.py --output_directory=outdir --log_directory=logdirtensorboard --logdir=outdir/logdir (TBD)
python inference.py -c checkpoint/path -r reference_audio/wav/path -t "synthesize text"python inference_all.py -c checkpoint/path -r reference_audios/dir/pathNB Ao executar a síntese de espectro-espectro na síntese de áudio, verifique se o tacotron 2 e o decodificador MEL foram treinados na mesma representação de espectrograma MEL.
@misc{lee2021robust_fine_grained_prosody_control,
author = {Lee, Keon},
title = {Robust_Fine_Grained_Prosody_Control},
year = {2021},
publisher = {GitHub},
journal = {GitHub repository},
howpublished = {url{https://github.com/keonlee9420/Robust_Fine_Grained_Prosody_Control}}
}
Waveglow mais rápido que a rede generativa baseada em fluxo em tempo real para síntese de fala
NV-WaveNet mais rápido que o Wavenet em tempo real.
Esta implementação usa o código dos seguintes repositórios: Nvidia/Tacotron-2, Kinglittleq/GST-Tacotron
Agradecemos aos autores do papel, especialmente Younggun Lee e Taesu Kim.