Clonar un discurso de voz y salida en otro idioma con la voz original.
Se recomienda Python 3.7. Se requiere Python 3.7, debido a que la versión de TensorFlow se utiliza en este proyecto.
python3 -m venv pyvenv
Active el entorno virtual: Windows: ./pyvenv/Scripts/activate macOS/Linux: source pyvenv/bin/activate
Desactivar el entorno virtual: deactivate
Nota: Su entorno virtual de Python puede causar problemas al ejecutar la interfaz de usuario.
Una vez instalado, extraiga la carpeta y agregue <ffmpeg folder path>/bin a la ruta.
pip3 install -r requirements.txt
Una vez descargado, agregue los modelos (*.pt) a CogNative/CogNative/models/RTVC/saved_models/default
La carpeta taco_preTraine (incluida la carpeta en sí) debe descargarse y agregar a CogNative/CogNative/models/RTVCSwedish/synthesizer/saved_models/swedish
credentials.json en el directorio de nivel superior. Actualmente hay un archivo llamado credentials.json.template , su credentials.json debe coincidir con los pares de clave/valor que se muestran allí. Comience desde el directorio de la raíz cognativa.
Para lanzar GUI, ejecute python -m CogNative.testUI.UI
Cualquier bandera necesaria que no se especifique hará que se genere un aviso que debe responderse antes de continuar. Siguen ejemplos.
python -m CogNative.main -help CogNative CLI FLags:
-sampleAudio <PATH>: audio file of voice to clone
-synType <text, audio>: synthesis mode either given input text or by transcribing audio file
[-dialogueAudio] <PATH>: for audio synType, audio file of dialogue to speak
[-dialogueText] <PATH>: for text synType, text string of dialogue to speak
-out <PATH>: output audio file path
-useExistingEmbed <y/yes/n/no>: Uses saved embedding of previously used voice samples if enabled and present.
python -m CogNative.main -sampleAudio CogNative/examples/MatthewM66.wav -synType text -dialogueText "The turbo-encabulator has now reached a high level of development, and it's being successfully used in the operation of novertrunnions." -out cmdExampleText.wav -useExistingEmbed y Loaded encoder "english_encoder.pt" trained to step 1564501
Synthesizer using device: cuda
Building Wave-RNN
Trainable Parameters: 4.481M
Loading model weights at CogNativemodelsRTVCsaved_modelsdefaultvocoder.pt
Synthesizing...
Clone output to cmdExampleText.wav
python -m CogNative.main -sampleAudio CogNativeexamplesMatthewM66.wav -synType audio -dialogueAudio CogNativeexamplesBillMaher22.wav -out cmdExampleAudio.wav -useExistingEmbed n Loaded encoder "english_encoder.pt" trained to step 1564501
Synthesizer using device: cuda
Building Wave-RNN
Trainable Parameters: 4.481M
Loading model weights at CogNativemodelsRTVCsaved_modelsdefaultvocoder.pt
Loading requested file...
Synthesizing...
Clone output to cmdExampleAudio.wav
Este guión traducirá audio de un idioma compatible al inglés. Para usar el script de autotranslate en Windows, arrastre y suelte un archivo de audio en el script o coloque un acceso directo al script en %AppData%MicrosoftWindowsSendTo y use la función de menú contextual "Enviar a" en un archivo de audio para traducir. En ambos casos, un nuevo archivo .wav con el nombre de archivo orginal seguido de "_ + lenguaje de destino" se colocará en la misma carpeta. Para otras plataformas, se deben utilizar las mismas banderas CLI, pero los detalles sobre la integración del menú contextual variarán según los paquetes instalados.
git branch yourname-feature-nameEsta guía de estilo es importante para asegurarse de que todos los estilo coincidan en todo el proyecto. Para peinar su código, use el Styler Black Python.
Archivo único: black <python-file-name> Todos los archivos: black .
Este repositorio de GitHub sirve como base de nuestro módulo de clonación de voz.
Clonación en tiempo real
Vea la licencia aquí.
Este repositorio de GitHub entrenó al sintetizador sueco.
Sueco en tiempo real