Acoustic-Fastspeech2 (обычай)
Разумная производительность путем использования переноса обучения для персонализации с небольшими объемами данных
Предоставьте API, которые могут быть созданы с точной настройкой в корейских наборах данных в режиме реального времени
Модель модели модификации в соответствии с тонкой настройкой
Легкая препроцесс, поезда, синтез через сценарий оболочки
Обеспечить уникальное изображение Docker
Он соответствует названию файла Fastspeech2 и Hifi-Gan, предварительно обученной CKPT и сохраняет его в каждой модели.
(Fastspeech2: 30 000 шаг
Для обучения и синтеза мы загружаем и выполняем изображения Docker, которые содержат все зависимые пакеты.
docker pull hws0120/e2e_speech_synthesis
Run_fs2_preprocessing.sh Шаги подключены к Docker с командой Conda и устанавливает пакет Python Jamo.
conda activate aligner
pip install jamo
Конец виртуальной среды для выполнения run_fs2_train или синтеза.
conda activate base
Если вы встретите все вышеперечисленные элементы, запустите сценарий оболочки, чтобы извлечь MFA.
sh run_FS2_preprocessing.sh
# Enter the dataset name
[Dataset_Name](ex. HW)
Успешно создает TextGrid для выхода из виртуальной среды и запуска сценария обучения.
sh run_FS2_train.sh
# Enter the dataset name
[Dataset_Name](ex. HW)
При завершении Fastspeech2 5000 Step Learning запустите сценарий Hifi-Gan.
sh run_HiFi-GAN_train.sh
# Enter the dataset name
[Dataset_Name](ex. HW)
Когда модель, изученная в папке CKPT, готова, запустите сценарий для синтеза.
sh run_FS2_synthesize.sh
# Enter the dataset name
[Dataset_Name](ex. HW)
Каждый контейнер установлен в процессе обучения и синтеза, а также в процессе, как показано.
Если у вас есть соответствующая контрольная точка Hifi-Gan, вы можете опустить обучение Hifi-Gan.