Robust_Fine_Grained_Prosody_Control
1.0.0
Pytorch-Implementierung einer robusten und feinkörnigen Prosodiekontrolle der End-to-End-Sprachsynthese (inoffiziell)
Diese Implementierung verwendet den Libritts -Datensatz.
git clone https://github.com/keonlee9420/Robust_Fine_Grained_Prosody_Control.gitcd Robust_Fine_Grained_Prosody_Controlgit submodule init; git submodule updatesed -i -- 's,/home/keon/speech-datasets/LibriTTS_preprocessed/train-clean-100/,your_libritts_dataset_folder/,g' filelists/*.txtload_mel_from_disk=True in hparams.py ein und aktualisieren Sie die Melspektrogrammpfadepip install -r requirements.txt python train.py --output_directory=outdir --log_directory=logdirtensorboard --logdir=outdir/logdir (TBD)
python inference.py -c checkpoint/path -r reference_audio/wav/path -t "synthesize text"python inference_all.py -c checkpoint/path -r reference_audios/dir/pathNB bei der Durchführung von Melspektrogrammen zur Audio-Synthese stellen Sie sicher, dass Tacotron 2 und der MEL-Decoder auf derselben Melspektrogram-Darstellung trainiert wurden.
@misc{lee2021robust_fine_grained_prosody_control,
author = {Lee, Keon},
title = {Robust_Fine_Grained_Prosody_Control},
year = {2021},
publisher = {GitHub},
journal = {GitHub repository},
howpublished = {url{https://github.com/keonlee9420/Robust_Fine_Grained_Prosody_Control}}
}
Wellenlow schneller als in Echtzeit flow-basierte generative Netzwerk für die Sprachsynthese
NV-Wavenet schneller als Echtzeit-Wellenet.
Diese Implementierung verwendet Code aus den folgenden Repos: Nvidia/Tacotron-2, Kinglittleq/GST-Tacotron
Wir danken den Papierautoren, besonders Younggun Lee, und Taesu Kim.