Un outil qui convertit un pont de diapositives en vidéo, avec votre narration vocale. Prise en charge de plusieurs langues.
Testé sur Ubuntu 20.04.
ffmpeg : sudo apt-get install ffmpegpip si vous ne l'avez pas déjà fait.git clone [email protected]:Changochen/slide-to-video.git
cd slide-to-video
pip install .slide-to-videoNEWSLIDE .slide-to-video --model MODEL_NAME --slide slide --script script --output-dir OUTPUT_PATH --config ADDITIONAL_CONFIG.yamlPour utiliser un modèle vocal local:
slide-to-video --model local --slide example/slide.pdf --script example/script.txt --voice example/sample.mp3 --output-dir output Une vidéo finale sera générée dans le répertoire OUTPUT_PATH en tant que output.mp4 .
Pour plus d'options, notamment en ajustant la vitesse de la parole, exécutez:
slide-to-video --helpModèle actuellement pris en charge :
Langues actuellement prises en charge : 'en', 'es', 'fr', 'de', 'it', 'pt', 'pl', 'tr', 'ru', 'nl', 'cs', 'ar', 'zh-cn', 'hu', 'ko', 'ja', 'salut' '
Après avoir généré la vidéo, le répertoire de sortie contiendra un fichier project.yaml , qui aide à ignorer la génération de contenu inchangé. Si les entrées restent les mêmes, l'outil saute le processus de génération vidéo.
Si vous modifiez la diapositive, le script ou les paramètres (comme la vitesse de la parole), l'outil régénère le contenu affecté. Pour forcer la régénération de pièces spécifiques, définissez le champ force_reset de l'élément correspondant dans project.yaml dans le répertoire de sortie.
Pour prendre en charge un nouveau modèle vocal, vous devez implémenter une nouvelle classe dans src/slide_to_video/tts_engine et enregistrer la classe en appelant register_engine (voir un exemple ici).
> You must confirm the following:
| > "I have purchased a commercial license from Coqui: [email protected]"
| > "Otherwise, I agree to the terms of the non-commercial CPML: https://coqui.ai/cpml" - [y/n]
| | >
y .