Ein Werkzeug, das ein Foliendeck in ein Video umwandelt, das mit Ihrer Sprachzählung komplett ist. Unterstützen Sie mehrere Sprachen.
Getestet auf Ubuntu 20.04.
ffmpeg : sudo apt-get install ffmpegpip , wenn Sie es noch nicht getan haben.git clone [email protected]:Changochen/slide-to-video.git
cd slide-to-video
pip install .slide-to-videoNEWSLIDE getrennt sind.slide-to-video --model MODEL_NAME --slide slide --script script --output-dir OUTPUT_PATH --config ADDITIONAL_CONFIG.yamlUm ein lokales Sprachmodell zu verwenden:
slide-to-video --model local --slide example/slide.pdf --script example/script.txt --voice example/sample.mp3 --output-dir output Ein endgültiges Video wird im Verzeichnis OUTPUT_PATH als output.mp4 generiert.
Weitere Optionen, einschließlich der Anpassung der Sprachgeschwindigkeit, laufen Sie:
slide-to-video --helpDerzeit unterstütztes Modell :
Derzeit unterstützte Sprachen : 'en', 'es', 'fr', 'de', 'es', 'pt', 'pl', 'tr', 'ru', 'nl', 'cs', 'ar', 'zh-cn', 'Hu', 'KO', 'ja', 'hi'
Nach dem Generieren des Videos enthält das Ausgabeverzeichnis eine project.yaml -Datei, mit der die Erzeugung unveränderter Inhalte übersprungen wird. Wenn Eingaben gleich bleiben, überspringt das Tool den Videogenerierungsvorgang.
Wenn Sie die Folie, das Skript oder die Einstellungen (wie die Sprachgeschwindigkeit) ändern, wird das Tool den betroffenen Inhalt regeneriert. Um die Regeneration bestimmter Teile zu erzwingen, setzen Sie das Feld force_reset des entsprechenden Elements in project.yaml im Ausgabeverzeichnis.
Um ein neues Sprachmodell zu unterstützen, müssen Sie eine neue Klasse in src/slide_to_video/tts_engine implementieren und die Klasse registrieren, indem Sie register_engine anrufen (siehe ein Beispiel hier).
> You must confirm the following:
| > "I have purchased a commercial license from Coqui: [email protected]"
| > "Otherwise, I agree to the terms of the non-commercial CPML: https://coqui.ai/cpml" - [y/n]
| | >
y eingeben.