BERT MB iSTFT VITS
1.0.0
16GB de RAM.12GB de VRAM.Commande d'installation de Pytorch:
pip install torch==1.13.1+cu117 torchvision==0.14.1+cu117 torchaudio==0.13.1 --extra-index-url https://download.pytorch.org/whl/cu117 CUDA 11.7 Installation: https://developer.nvidia.com/cuda-11-7-0-download-archive
conda create -n vits python=3.8conda activate vitsgit clone https://github.com/project-elnino/BERT-MB-iSTFT-VITS.git cd BERT-MB-iSTFT-VITSpip install -r requirements.txt path/to/audio_001.wav |<speaker_name>|<language_code>|<text_001>
../kss2/1/1_0000.wav|KR-default|KR|그는 괜찮은 척하려고 애쓰는 것 같았다.
python preprocess.py --metadata ./metadata.list --config_path ./configs/config.json Si votre fichier vocal n'est pas Mono / PCM-16 , vous devez d'abord rééchantillonner votre fichier .wav.
| Modèle | Comment configurer le fichier JSON dans les configurations | Exemple de configuration de fichier JSON |
|---|---|---|
| istft-vits | "istft_vits": true,"upsample_rates": [8,8], | ljs_istft_vits.json |
| Mb-Istft-vits | "subbands": 4,"mb_istft_vits": true,"upsample_rates": [4,4], | ljs_mb_istft_vits.json |
| MS-ISTFT-VITS | "subbands": 4,"ms_istft_vits": true,"upsample_rates": [4,4], | ljs_ms_istft_vits.json |
training_files et validation_files sur le chemin des fichiers manifestes prétraités. python train.py -c < config > -m < folder >La formation de curriculum vitae du dernier point de contrôle est automatique.
Vérifier Inference.py
python inference.py -m ./models/kss/G_64000.pthInférence du serveur
python inference_server.py -m ./models/kss/G_64000.pthFaire une inférence
curl -X POST -H " Content-Type: application/json " -d ' {"text": "잠시 통화 괜찮으시면 전화를 끊지 말아주세요."} ' http://localhost:5000/synthesize