BERT MB iSTFT VITS
1.0.0
16GB de RAM.12GB de VRAM.Comando de instalación de Pytorch:
pip install torch==1.13.1+cu117 torchvision==0.14.1+cu117 torchaudio==0.13.1 --extra-index-url https://download.pytorch.org/whl/cu117 CUDA 11.7 Instalación: https://developer.nvidia.com/cuda-11-7-0-download-archive
conda create -n vits python=3.8conda activate vitsgit clone https://github.com/project-elnino/BERT-MB-iSTFT-VITS.git cd BERT-MB-iSTFT-VITSpip install -r requirements.txt path/to/audio_001.wav |<speaker_name>|<language_code>|<text_001>
../kss2/1/1_0000.wav|KR-default|KR|그는 괜찮은 척하려고 애쓰는 것 같았다.
python preprocess.py --metadata ./metadata.list --config_path ./configs/config.json Si su archivo de discurso no es Mono / PCM-16 , primero debe volver a muestrear su archivo .wav.
| Modelo | Cómo configurar el archivo json en las configuraciones | Muestra de configuración de archivos JSON |
|---|---|---|
| istft-vits | "istft_vits": true,"upsample_rates": [8,8], | ljs_istft_vits.json |
| Vits | "subbands": 4,"mb_istft_vits": true,"upsample_rates": [4,4], | ljs_mb_istft_vits.json |
| MS-ESTFT-VITS | "subbands": 4,"ms_istft_vits": true,"upsample_rates": [4,4], | ljs_ms_istft_vits.json |
training_files y validation_files a la ruta de los archivos de manifiesto preprocesados. python train.py -c < config > -m < folder >El entrenamiento de reanudación desde el último punto de control es automático.
Verifique Inference.py
python inference.py -m ./models/kss/G_64000.pthInferencia del servidor
python inference_server.py -m ./models/kss/G_64000.pthHacer inferencia
curl -X POST -H " Content-Type: application/json " -d ' {"text": "잠시 통화 괜찮으시면 전화를 끊지 말아주세요."} ' http://localhost:5000/synthesize