? ?警告!这个存储库还没有准备好。我们将在Alpha公开发布,但是应该在接下来的几个月内发生巨大变化。 ? ?
这是小型团队“本地语言教育的语音生成”项目所使用的文本到语音(TTS)工具包。
安装Python 3.10或3.11,并为Everyvoice创建VENV或CONDA ENV。
安装sox 。在Ubuntu上, sudo apt-get install sox libsox-dev应该起作用。如果conda install sox -c conda-forge
安装ffmpeg 。在Ubuntu上, sudo apt-get install ffmpeg应该起作用。如果不是,请在每个视频环境中使用conda并运行conda install ffmpeg 。
为您的平台安装torch和torchaudio版本2.1.0和CUDA版本:按照https://pytorch.org/get-started/locally//locally/的说明,但在安装命令中指定torch==2.1.0 torchaudio==2.1.0 torchvision
运行pip install everyvoice==0.2.0a1 (如果需要,将版本更改为当前版本)。
首先,您需要安装conda 。 miniforge3是一个完全开源的选项,对所有用户都是免费的,并且运行良好。如果有或可以获得许可证,也可以使用Anaconda3或Miniconda3。
git clone https://github.com/EveryVoiceTTS/EveryVoice.git
cd EveryVoice
git submodule update --init要运行所有视觉,您需要使用Conda和Python 3.10创建一个新的环境,安装我们所有的依赖项和所有视频本身。
我们已经在脚本make-everyvoice-env中自动化了完成所有操作所需的过程,您可以这样运行:
./make-everyvoice-env --name < env-name-of-your-choice >
conda activate < env-name-of-your-choice >如果需要覆盖默认的cuda版本,则添加选项--cuda CUDA_VERSION或--cpu仅用于COME CPU使用。
如果自动安装过程对您不起作用,或者您希望手动进行完整的安装,请参考所有视频 /安装。
阅读完整的每个视频文档。
特别是阅读指南以熟悉整个过程。
随意潜水!打开问题或提交公关。
此存储库遵循贡献者盟约行为准则。
请通过在沙箱中运行这些命令来确保我们的标准git钩被激活(如果您使用了我们的make-everyvoice-env脚本,那么此步骤已经为您完成):
pip install -r requirements.dev.txt
pre-commit install
gitlint install-hook
git submodule foreach ' pre-commit install '
git submodule foreach ' gitlint install-hook '请查看有关我们喜欢的常规提交消息的全部详细信息,我们的代码格式惯例,我们的git挂钩以及有关如何提出有效拉的请求的建议。
该存储库利用了许多其他精彩的代码库。非常感谢:
如果您进行了交互式安装的软件包,则通过python -m unittest tests/test_configs.py进行单元测试或通过运行everyvoice test dev套件来运行单元测试。