Uma ferramenta que converte um deck deslizante em um vídeo, completo com sua narração de voz. Suporte a vários idiomas.
Testado no Ubuntu 20.04.
ffmpeg : sudo apt-get install ffmpegpip , se você ainda não o fez.git clone [email protected]:Changochen/slide-to-video.git
cd slide-to-video
pip install .slide-to-videoNEWSLIDE do marcador.slide-to-video --model MODEL_NAME --slide slide --script script --output-dir OUTPUT_PATH --config ADDITIONAL_CONFIG.yamlPara usar um modelo de voz local:
slide-to-video --model local --slide example/slide.pdf --script example/script.txt --voice example/sample.mp3 --output-dir output Um vídeo final será gerado no diretório OUTPUT_PATH como output.mp4 .
Para mais opções, incluindo o ajuste da velocidade da fala, execute:
slide-to-video --helpModelo atualmente suportado :
Atualmente apoiado idiomas : 'en', 'es', 'fr', 'de', 'it', 'pt', 'pl', 'tr', 'ru', 'nl', 'cs', 'ar', 'zh-cn', 'hu', 'ko', 'ja', 'hi'
Depois de gerar o vídeo, o diretório de saída conterá um project.yaml , que ajuda a pular a geração de conteúdo inalterado. Se as entradas permanecerem as mesmas, a ferramenta pula o processo de geração de vídeo.
Se você modificar o slide, o script ou as configurações (como a velocidade da fala), a ferramenta regenera o conteúdo afetado. Para forçar a regeneração de peças específicas, defina o campo force_reset do item correspondente no project.yaml no diretório de saída.
Para suportar um novo modelo de voz, você precisa implementar uma nova classe em src/slide_to_video/tts_engine e registrar a classe chamando register_engine (consulte um exemplo aqui).
> You must confirm the following:
| > "I have purchased a commercial license from Coqui: [email protected]"
| > "Otherwise, I agree to the terms of the non-commercial CPML: https://coqui.ai/cpml" - [y/n]
| | >
y .