ระบบการสังเคราะห์คำพูดหลายภาษาโดยใช้ VITS
16GB12GBคำสั่งการติดตั้ง Pytorch:
pip install torch==1.13.1+cu117 torchvision==0.14.1+cu117 torchaudio==0.13.1 --extra-index-url https://download.pytorch.org/whl/cu117 CUDA 11.7 ติดตั้ง: https://developer.nvidia.com/cuda-11-7-0-download-archive
zlib dll ติดตั้ง: https://docs.nvidia.com/deeplearning/cudnn/install-guide/index.html#install-zlib-windows
ติดตั้ง pyopenjtalk ด้วยตนเอง: pip install -U pyopenjtalk --no-build-isolation
หากคำสั่งนี้ไม่ได้ติดตั้งโปรดติดตั้งไลบรารีต่อไปนี้ก่อนดำเนินการต่อ: cmake Cython
conda create -n polylangvits python=3.8conda activate polylangvitsgit clone https://github.com/ORI-Muchim/PolyLangVITS.git cd PolyLangVITSpip install -r requirements.txtวางไฟล์เสียงดังนี้
.mp3 หรือ. wav ไฟล์ก็โอเค
คุณต้องเขียน '[รหัสภาษา]' ที่ด้านหลังของโฟลเดอร์ลำโพง
PolyLangVITS
├────datasets
│ ├───speaker0[KO]
│ │ ├────1.mp3
│ │ └────1.wav
│ └───speaker1[JA]
│ │ ├───1.mp3
│ │ └───1.wav
│ ├───speaker2[EN]
│ │ ├────1.mp3
│ │ └────1.wav
│ ├───speaker3[ZH]
│ │ ├────1.mp3
│ │ └────1.wav
│ ├integral.py
│ └integral_low.py
│
├────vits
├────get_pretrained_model.py
├────inference.py
├────main_low.py
├────main_resume.py
├────main.py
├────Readme.md
└────requirements.txt
นี่เป็นเพียงตัวอย่างและมันก็โอเคที่จะเพิ่มลำโพงมากขึ้น
ในการเริ่มต้นเครื่องมือนี้ให้ใช้คำสั่งต่อไปนี้แทนที่ {ภาษา}, {model_name} และ {sample_rate} ด้วยค่าที่เกี่ยวข้องของคุณ:
python main.py {language} {model_name} {sample_rate}สำหรับผู้ที่มีข้อกำหนดต่ำ (VRAM <12GB) โปรดใช้รหัสนี้:
python main_low.py {language} {model_name} {sample_rate}หากการกำหนดค่าข้อมูลเสร็จสมบูรณ์และคุณต้องการฝึกอบรมต่อให้ป้อนรหัสนี้:
python main_resume.py {model_name}หลังจากได้รับการฝึกอบรมแบบจำลองแล้วคุณสามารถสร้างการคาดการณ์ได้โดยใช้คำสั่งต่อไปนี้แทนที่ {model_name} และ {model_step} ด้วยค่าที่เกี่ยวข้องของคุณ:
python inference.py {model_name} {model_step}สำหรับข้อความถึงการอนุมานการพูดให้ใช้สิ่งต่อไปนี้:
python inference-stt.py {model_name} {model_step}นอกจากนี้คุณอาจส่งข้อความด้วยตนเองโดยไม่ต้องแก้ไขรหัสโดย:
python inference-stt.py {model_name} {model_step} {text}สำหรับข้อมูลเพิ่มเติมโปรดดูที่เก็บต่อไปนี้: