Una herramienta que convierte un mazo de diapositivas en un video, completo con tu narración de voz. Admite múltiples idiomas.
Probado en Ubuntu 20.04.
ffmpeg : sudo apt-get install ffmpegpip si aún no lo ha hecho.git clone [email protected]:Changochen/slide-to-video.git
cd slide-to-video
pip install .slide-to-videoNEWSLIDE .slide-to-video --model MODEL_NAME --slide slide --script script --output-dir OUTPUT_PATH --config ADDITIONAL_CONFIG.yamlPara usar un modelo de voz local:
slide-to-video --model local --slide example/slide.pdf --script example/script.txt --voice example/sample.mp3 --output-dir output Se generará un video final en el directorio OUTPUT_PATH como output.mp4 .
Para obtener más opciones, incluido el ajuste de la velocidad del habla, ejecute:
slide-to-video --helpModelo compatible actualmente :
Idiomas compatibles actualmente : 'en', 'es', 'fr', 'de', 'it', 'pt', 'pl', 'tr', 'ru', 'nl', 'cs', 'ar', 'zh-cn', 'hu', 'ko', 'ja', 'hi' '
Después de generar el video, el directorio de salida contendrá un archivo project.yaml , que ayuda a omitir la generación de contenido sin cambios. Si las entradas siguen siendo las mismas, la herramienta omite el proceso de generación de videos.
Si modifica la diapositiva, script o configuración (como la velocidad del habla), la herramienta regenera el contenido afectado. Para forzar la regeneración de partes específicas, establezca el campo force_reset del elemento correspondiente en project.yaml en el directorio de salida.
Para admitir un nuevo modelo de voz, debe implementar una nueva clase en src/slide_to_video/tts_engine y registrar la clase llamando register_engine (ver un ejemplo aquí).
> You must confirm the following:
| > "I have purchased a commercial license from Coqui: [email protected]"
| > "Otherwise, I agree to the terms of the non-commercial CPML: https://coqui.ai/cpml" - [y/n]
| | >
y .