Robust_Fine_Grained_Prosody_Control
1.0.0
エンドツーエンドの音声合成の堅牢で微調整された韻律制御のPytorchの実装(非公式)
この実装では、Librittsデータセットを使用します。
git clone https://github.com/keonlee9420/Robust_Fine_Grained_Prosody_Control.gitcd Robust_Fine_Grained_Prosody_Controlgit submodule init; git submodule updatesed -i -- 's,/home/keon/speech-datasets/LibriTTS_preprocessed/train-clean-100/,your_libritts_dataset_folder/,g' filelists/*.txthparams.pyでload_mel_from_disk=Trueを設定し、melspectrogramパスを更新しますpip install -r requirements.txt python train.py --output_directory=outdir --log_directory=logdirtensorboard --logdir=outdir/logdir (TBD)
python inference.py -c checkpoint/path -r reference_audio/wav/path -t "synthesize text"python inference_all.py -c checkpoint/path -r reference_audios/dir/pathNBメルスペクトルグラムをオーディオ合成に実行するとき、タコトロン2とMELデコーダーが同じMELスペクトル表現でトレーニングされていることを確認してください。
@misc{lee2021robust_fine_grained_prosody_control,
author = {Lee, Keon},
title = {Robust_Fine_Grained_Prosody_Control},
year = {2021},
publisher = {GitHub},
journal = {GitHub repository},
howpublished = {url{https://github.com/keonlee9420/Robust_Fine_Grained_Prosody_Control}}
}
音声合成のためのリアルタイムフローベースの生成ネットワークよりも速い波動
nv-wavenetリアルタイムwavenetよりも速い。
この実装は、次のレポスのコードを使用します:nvidia/tacotron-2、kinglittleq/gst-tacotron
私たちは、紙の著者、特にヤング・リー・リーとテス・キムに感謝しています。