End to End TTS Fine Tune
1.0.0
Acoustic-fastspeech2(自定義)
合理的表現,利用轉移學習來用少量數據進行個性化
提供可以實時在韓國數據集中進行微調創建的API
根據微調修改型號代碼
簡單的預處理,火車,通過Shell腳本合成
提供獨特的Docker圖像
它匹配FastSpeech2和HIFI-GAN預先訓練的CKPT的文件名,並將其保留在每個型號中。
(fastspeech2:30,000步進學習 / hifi -gan -jungil king的官方假裝-University -University)
對於學習和綜合,我們加載和執行包含所有相關軟件包的Docker圖像。
docker pull hws0120/e2e_speech_synthesis
run_fs2_preprocessing.sh步驟通過conda命令連接到docker,並安裝python package jamo。
conda activate aligner
pip install jamo
虛擬環境的結束,以執行RUN_FS2_TRAIN或合成。
conda activate base
如果您遇到上述所有項目,請運行Shell腳本以提取MFA。
sh run_FS2_preprocessing.sh
# Enter the dataset name
[Dataset_Name](ex. HW)
成功地創建了一個文本格言,以退出虛擬環境並運行學習腳本。
sh run_FS2_train.sh
# Enter the dataset name
[Dataset_Name](ex. HW)
FastSpeech2 5000步驟學習完成後,請運行HIFI-GAN腳本。
sh run_HiFi-GAN_train.sh
# Enter the dataset name
[Dataset_Name](ex. HW)
當準備就緒CKPT文件夾中學習的模型時,請運行腳本以進行合成。
sh run_FS2_synthesize.sh
# Enter the dataset name
[Dataset_Name](ex. HW)
每個容器均在學習和合成過程中建立,如圖所示。
如果您有適當的HIFI-GAN檢查站,則可以省略Hifi-GAN學習。