Implementación de Pytorch de (ACM MM'21) Multi-Singer: Vo Vocoder de voz de múltiples cantantes rápidos con un corpus a gran escala.
Consulte los requisitos en requisitos.txt:
Use nuestro punto de control, o
También puede entrenar al codificador por su cuenta aquí y establecer el enc_model_fpath en config/config.yaml. Establezca los parámetros como los de encoder/params_data y encoder/params_model .
Extraer espectrograma MEL
python preprocess . py - i data / wavs - o data / feature - c config / config . yaml -i tu carpeta de audio
-o de la carpeta de características acústicas de salida
-c Archivo de configuración
Entrenamiento acondicionado en Mel-Spectrogram
python train . py - i data / feature - o checkpoints / - - config config / config . yaml -i carpeta de características acústicas
-o Directorio para guardar puntos de control
-c Archivo de configuración
python inference . py - i data / feature - o outputs / - c checkpoints / * . pkl - g config / config . yaml -i carpeta de características acústicas
-o Directorio para salvar el discurso generado
-c archivo de puntos de control
-c Archivo de configuración
Para cantar síntesis de voz:
Entrenado en OpenSinger
Ge2e
FastSpeech 2
Wavan paralelo
@inproceedings{huang2021multi,
title={Multi-Singer: Fast Multi-Singer Singing Voice Vocoder With A Large-Scale Corpus},
author={Huang, Rongjie and Chen, Feiyang and Ren, Yi and Liu, Jinglin and Cui, Chenye and Zhao, Zhou},
booktitle={Proceedings of the 29th ACM International Conference on Multimedia},
pages={3945--3954},
year={2021}
}
No dude en ponerse en contacto conmigo en [email protected]