BERT MB iSTFT VITS
1.0.0
16GB RAM.12GB VRAM.Befehl pytorch installieren:
pip install torch==1.13.1+cu117 torchvision==0.14.1+cu117 torchaudio==0.13.1 --extra-index-url https://download.pytorch.org/whl/cu117 CUDA 11.7 Install: https://developer.nvidia.com/cuda-11-7-0-download-archive
conda create -n vits python=3.8conda activate vitsgit clone https://github.com/project-elnino/BERT-MB-iSTFT-VITS.git cd BERT-MB-iSTFT-VITSpip install -r requirements.txt path/to/audio_001.wav |<speaker_name>|<language_code>|<text_001>
../kss2/1/1_0000.wav|KR-default|KR|그는 괜찮은 척하려고 애쓰는 것 같았다.
python preprocess.py --metadata ./metadata.list --config_path ./configs/config.json Wenn Ihre Sprachdatei entweder nicht Mono / PCM-16 ist, sollten Sie zuerst Ihre .wav-Datei wiederproben.
| Modell | So richten Sie die JSON -Datei in Konfigurationen ein | Beispiel der JSON -Dateikonfiguration |
|---|---|---|
| iStft-its | "istft_vits": true,"upsample_rates": [8,8], | ljs_istft_vits.json |
| MB-ISTFT-Vits | "subbands": 4,"mb_istft_vits": true,"upsample_rates": [4,4], | ljs_mb_istft_vits.json |
| Ms-istft-vits | "subbands": 4,"ms_istft_vits": true,"upsample_rates": [4,4], | ljs_ms_istft_vits.json |
training_files und validation_files in den Pfad der vorverarbeiteten Manifestdateien. python train.py -c < config > -m < folder >Das Lebenslauf -Training vom letzten Kontrollpunkt ist automatisch.
Check Inference.py
python inference.py -m ./models/kss/G_64000.pthServerinferenz
python inference_server.py -m ./models/kss/G_64000.pthInferenzieren
curl -X POST -H " Content-Type: application/json " -d ' {"text": "잠시 통화 괜찮으시면 전화를 끊지 말아주세요."} ' http://localhost:5000/synthesize