BERT MB iSTFT VITS
1.0.0
16GB .12GB de VRAM.Comando de instalação pytorch:
pip install torch==1.13.1+cu117 torchvision==0.14.1+cu117 torchaudio==0.13.1 --extra-index-url https://download.pytorch.org/whl/cu117 CUDA 11.7 Instale: https://developer.nvidia.com/cuda-11-7-0-download-archive
conda create -n vits python=3.8conda activate vitsgit clone https://github.com/project-elnino/BERT-MB-iSTFT-VITS.git cd BERT-MB-iSTFT-VITSpip install -r requirements.txt path/to/audio_001.wav |<speaker_name>|<language_code>|<text_001>
../kss2/1/1_0000.wav|KR-default|KR|그는 괜찮은 척하려고 애쓰는 것 같았다.
python preprocess.py --metadata ./metadata.list --config_path ./configs/config.json Se o seu arquivo de fala não for Mono / PCM-16 , você deve respleminar seu arquivo .wav primeiro.
| Modelo | Como configurar o arquivo JSON nas configurações | Amostra de configuração de arquivo JSON |
|---|---|---|
| istft-vits | "istft_vits": true,"upsample_rates": [8,8], | ljs_istft_vits.json |
| MB-ISTFT-VITS | "subbands": 4,"mb_istft_vits": true,"upsample_rates": [4,4], | ljs_mb_istft_vits.json |
| Ms-istft-vits | "subbands": 4,"ms_istft_vits": true,"upsample_rates": [4,4], | ljs_ms_istft_vits.json |
training_files e validation_files para o caminho dos arquivos de manifesto pré -processados. python train.py -c < config > -m < folder >Retomar o treinamento do Lastest Checkpoint é automático.
Verifique inference.py
python inference.py -m ./models/kss/G_64000.pthInferência do servidor
python inference_server.py -m ./models/kss/G_64000.pthInferência
curl -X POST -H " Content-Type: application/json " -d ' {"text": "잠시 통화 괜찮으시면 전화를 끊지 말아주세요."} ' http://localhost:5000/synthesize