스피커 조건 계층 정규화 및 텍스트 음성 연설에서 반 감독 교육을 기반으로 Bytedance의 교차 스피커 감정 전달의 Pytorch 구현.

오디오 샘플은 /데모에서 사용할 수 있습니다.
데이터 세트는 다음 문서에서 RAVDESS 와 같은 데이터 세트의 이름을 나타냅니다.
파이썬 종속성을 설치할 수 있습니다
pip3 install -r requirements.txt
또한 LConvBlock 활용하려면 FairSeQ (공식 문서, GitHub)를 설치하십시오. 설치에 대한 모든 문제를 해결하려면 여기에서 확인하십시오. Dockerfile 은 Docker 사용자에게 제공되지만 FairSeQ를 수동으로 설치해야합니다.
사전 치료 된 모델을 다운로드하여 output/ckpt/DATASET/ 에 넣어야합니다.
참조 오디오에서 부드러운 감정 토큰을 추출하려면
python3 synthesize.py --text "YOUR_DESIRED_TEXT" --speaker_id SPEAKER_ID --ref_audio REF_AUDIO_PATH --restore_step RESTORE_STEP --mode single --dataset DATASET
또는 감정 ID에서 단단한 감정 토큰을 사용하려면
python3 synthesize.py --text "YOUR_DESIRED_TEXT" --speaker_id SPEAKER_ID --emotion_id EMOTION_ID --restore_step RESTORE_STEP --mode single --dataset DATASET
학습 된 스피커 사전은 preprocessed_data/DATASET/speakers.json 에서 찾을 수 있으며 생성 된 발화는 output/result/ 에 넣습니다.
배치 추론도 지원됩니다
python3 synthesize.py --source preprocessed_data/DATASET/val.txt --restore_step RESTORE_STEP --mode batch --dataset DATASET
preprocessed_data/DATASET/val.txt 의 모든 발화를 종합합니다. 주어진 감정 ID의 어려운 감정 토큰만이 모드에서 뒷받침됩니다.
지원되는 데이터 세트는입니다
자신의 언어와 데이터 세트는 다음에 따라 적응할 수 있습니다.
외부 스피커 임베더가있는 멀티 스피커 TT 의 경우 스피커를 포함시키기 위해 Philipperemy의 DeepSpeaker의 Rescnn SoftMax+Triplet Pretrated 모델을 다운로드하여 ./deepspeaker/pretrained_models/ 에서 찾으십시오.
달리다
python3 prepare_align.py --dataset DATASET
일부 준비.
강제 정렬의 경우, 몬트리올 강제 정렬 (MFA)은 발화와 음소 시퀀스 사이의 정렬을 얻는 데 사용됩니다. 데이터 세트에 대한 사전 추출 된 정렬이 여기에 제공됩니다. preprocessed_data/DATASET/TextGrid/ 에서 파일을 압축해야합니다. 또는 혼자서 Aligner를 실행할 수 있습니다.
그 후, 전처리 스크립트를 실행하십시오
python3 preprocess.py --dataset DATASET
모델을 훈련하십시오
python3 train.py --dataset DATASET
유용한 옵션 :
--use_amp 인수를 추가하십시오.CUDA_VISIBLE_DEVICES=<GPU_IDs> 지정하십시오.사용
tensorboard --logdir output/log
지역 호스트에서 텐서 보드를 제공합니다. 손실 곡선, 합성 된 멜 스피어 그램 및 오디오가 표시됩니다.



'none' 과 'DeepSpeaker' 사이)를 설정하여 전환 할 수 있습니다.
About Section (메인 페이지의 오른쪽 상단)의 "이 저장소 인용"으로이 저장소를 인용하십시오.