Pytorch Implémentation de (ACM MM'21) Multi-monteur: Vocage de chant à chanteur multiples rapide avec un corpus à grande échelle.
Voir les exigences dans les besoins.txt:
Utilisez notre point de contrôle, ou
Vous pouvez également former le codeur par vous-même ici et définir l' enc_model_fpath dans config / config.yaml. Veuillez définir les paramètres comme ceux de encoder/params_data et encoder/params_model .
Extraire du spectrogramme de MEL
python preprocess . py - i data / wavs - o data / feature - c config / config . yaml -i votre dossier audio
-o dossier de fonctionnalité acoustique de sortie
Fichier de configuration -c
Formation conditionnée sur le spectrogramme MEL
python train . py - i data / feature - o checkpoints / - - config config / config . yaml -i dossier de fonctionnalité acoustique
-o répertoire pour enregistrer les points de contrôle
Fichier de configuration -c
python inference . py - i data / feature - o outputs / - c checkpoints / * . pkl - g config / config . yaml -i dossier de fonctionnalité acoustique
-o répertoire pour enregistrer le discours généré
-c fichier de points de contrôle
Fichier de configuration -c
Pour chanter la synthèse vocale:
Formé sur OpenSinger
Ge2e
FastSpeech 2
Wavegan parallèle
@inproceedings{huang2021multi,
title={Multi-Singer: Fast Multi-Singer Singing Voice Vocoder With A Large-Scale Corpus},
author={Huang, Rongjie and Chen, Feiyang and Ren, Yi and Liu, Jinglin and Cui, Chenye and Zhao, Zhou},
booktitle={Proceedings of the 29th ACM International Conference on Multimedia},
pages={3945--3954},
year={2021}
}
N'hésitez pas à me contacter à [email protected]