Mise en œuvre du Pytorch du contrôle de la prosodie robuste et à grain fin de la synthèse de la parole de bout en bout (non officielle)
Cette implémentation utilise l'ensemble de données Libritts.
git clone https://github.com/keonlee9420/Robust_Fine_Grained_Prosody_Control.gitcd Robust_Fine_Grained_Prosody_Controlgit submodule init; git submodule updatesed -i -- 's,/home/keon/speech-datasets/LibriTTS_preprocessed/train-clean-100/,your_libritts_dataset_folder/,g' filelists/*.txtload_mel_from_disk=True dans hparams.py et mettez à jour les chemins de spectrogramme MELpip install -r requirements.txt python train.py --output_directory=outdir --log_directory=logdirtensorboard --logdir=outdir/logdir (TBD)
python inference.py -c checkpoint/path -r reference_audio/wav/path -t "synthesize text"python inference_all.py -c checkpoint/path -r reference_audios/dir/pathNB Lors de l'exécution du spectrogramme de MEL à la synthèse audio, assurez-vous que le tacotron 2 et le décodeur MEL ont été formés sur la même représentation du spectrogramme MEL.
@misc{lee2021robust_fine_grained_prosody_control,
author = {Lee, Keon},
title = {Robust_Fine_Grained_Prosody_Control},
year = {2021},
publisher = {GitHub},
journal = {GitHub repository},
howpublished = {url{https://github.com/keonlee9420/Robust_Fine_Grained_Prosody_Control}}
}
Glugon d'onde plus rapide que le réseau génératif basé sur le flux en temps réel pour la synthèse de la parole
NV-WAVENET plus vite que le wavenet en temps réel.
Cette implémentation utilise le code des référentiels suivants: Nvidia / Tacotron-2, Kinglittleq / GST-Tacotron
Nous sommes reconnaissants aux auteurs de documents, spécialement Younggun Lee et Taesu Kim.