简体中文
带有实时支持的so-vits-svc叉子,并大大改进了界面。基于分支4.0 (V1)(OR 4.1 ),模型是兼容的。 4.1不支持模型。其他模型也不支持。
总是要注意很少有影响者对任何新项目/技术都感到非常惊讶的影响者。您需要带有半构想的每个社交网络帖子。
2023年发生的声音改变繁荣已经结束,许多开发人员,不仅仅是该存储库中的开发人员都在一段时间内都不是很活跃。
这里有太多替代方案可在这里列出:
在其他地方,几家初创企业改善和销售了语音改变者(可能是为了获利)。
自2023年春季以来,该存储库的更新仅限于维护。
很难在此处缩小替代方案的列表,但是如果您正在寻找具有更好性能的语音变化器(尤其是在质量以外的延迟方面),请考虑尝试其他项目。>但是,对于那些想暂时尝试语音转换的人来说,该项目可能是理想的选择(因为它易于安装)。
QuickVCContentVec的滥用。 1CREPE更准确的音高估算。pip安装来使用。fairseq 。该BAT文件将自动执行下面描述的步骤。
Windows(由于PYPA/PIPX#940所需的开发版本):
py -3 -m pip install --user git+https://github.com/pypa/pipx.git
py -3 -m pipx ensurepathLinux/MacOS:
python -m pip install --user pipx
python -m pipx ensurepathpipx install so-vits-svc-fork --python=3.11
pipx inject so-vits-svc-fork torch torchaudio --pip-args= " --upgrade " --index-url=https://download.pytorch.org/whl/cu121 # https://download.pytorch.org/whl/nightly/cu121视窗:
py -3.11 -m venv venv
venv S cripts a ctivateLinux/MacOS:
python3.11 -m venv venv
source venv/bin/activateAnaconda:
conda create -n so-vits-svc-fork python=3.11 pip
conda activate so-vits-svc-fork如果在程序文件中安装了Python,则在不创建虚拟环境的情况下安装可能会导致PermissionError 。
通过PIP(或使用PIP的您喜欢的软件包管理器)安装此信息:
python -m pip install -U pip setuptools wheel
pip install -U torch torchaudio --index-url https://download.pytorch.org/whl/cu121 # https://download.pytorch.org/whl/nightly/cu121
pip install -U so-vits-svc-forkpip install -U torch torchaudio --index-url https://download.pytorch.org/whl/cu121即可。国会议员可能受到支持。--index-url https://download.pytorch.org/whl/cu121与--index-url https://download.pytorch.org/whl/nightly/rocm5.7 。 Windows不支持AMD GPU(#120)。请定期更新此软件包,以获取最新功能和错误修复。
pip install -U so-vits-svc-fork
# pipx upgrade so-vits-svc-fork GUI通过以下命令启动:
svcgsvc vcsvc infer source.wav审计的模型可在拥抱面或civitai上使用。
3_HP-Vocal-UVR.pth或UVR-MDX-NET Main 。 3svc pre-split将数据集拆分为多个文件(使用librosa )。svc pre-sd将数据集拆分为多个文件(使用pyannote.audio )。由于准确性问题,可能需要进一步的手动分类。如果说话者用各种语音样式说话,那么宣扬的演讲风格 - 宣传者比实际的扬声器数量更大。由于未解决的依赖关系,请手动安装pyannote.audio pip install pyannote-audio 。svc pre-classify 。上下箭头键可用于更改播放速度。 4
如果您无法访问具有超过10 GB VRAM的GPU,则建议使用Google COLAB的免费计划,并建议使用论文空间的Pro/Growth Plan Play/Growts Plans for Heeby用户。相反,如果您可以访问高端GPU,则不建议使用云服务。
将数据集像dataset_raw/{speaker_id}/**/{wav_file}.{any_format}
svc pre-resample
svc pre-config
svc pre-hubert
svc train -tconfig.json中尽可能增加batch_size ,以匹配train容量。将batch_size设置为auto-{init_batch_size}-{max_n_trials} (或简单地auto )会自动增加batch_size ,直到发生OOM错误,但在某些情况下可能不会有用。CREPE ,请用SVC svc pre-hubert -fm crepe svc pre-hubert 。ContentVec ,请用-t so-vits-svc-4.0v1替换svc pre-config 。训练可能需要更长的时间,因为由于重复使用传统初始发电机的重量,某些权重被重置。MS-iSTFT Decoder ,请用svc pre-config svc pre-config -t quickvc Pre-Config。有关更多详细信息,请运行svc -h或svc <subcommand> -h 。
> svc -h
Usage: svc [OPTIONS] COMMAND [ARGS]...
so-vits-svc allows any folder structure for training data.
However, the following folder structure is recommended.
When training: dataset_raw/{speaker_name}/ ** /{wav_name}.{any_format}
When inference: configs/44k/config.json, logs/44k/G_XXXX.pth
If the folder structure is followed, you DO NOT NEED TO SPECIFY model path, config path, etc.
(The latest model will be automatically loaded.)
To train a model, run pre-resample, pre-config, pre-hubert, train.
To infer a model, run infer.
Options:
-h, --help Show this message and exit.
Commands:
clean Clean up files, only useful if you are using the default file structure
infer Inference
onnx Export model to onnx (currently not working)
pre-classify Classify multiple audio files into multiple files
pre-config Preprocessing part 2: config
pre-hubert Preprocessing part 3: hubert If the HuBERT model is not found, it will be...
pre-resample Preprocessing part 1: resample
pre-sd Speech diarization using pyannote.audio
pre-split Split audio files into multiple files
train Train model If D_0.pth or G_0.pth not found, automatically download from hub.
train-cluster Train k-means clustering
vc Realtime inference from microphone视频教程
谢谢这些好人(表情符号钥匙):
34J ? ? ? ? | GarrettConway ? ? | 蓝色 ? ? | throflawayAccount01 ? | 绯 ? | Lordmau5 ? ? ? ? | DL909 ? |
满足256 ? | 皮埃尔利吉·扎加里亚(Pierluigi Zagaria) ? | ruckusmattster ? | Desuka-Art ? | 嘿,fixit | 书呆子啮齿动物 ? | 谢宇 |
Coldcawfee ? | Sbersier ? ? ? | Meldoner ? ? | mmmodeusher ? | 阿隆丹 ? | likkkez ? | 胶带游戏 ? |
他 ? | 75aosu ? | Tonyco82 ? | yxlllc ? | 开口 ? | escoolioinglesias ? ? ? | blacksingh ? |
MGS。 M. Thoyib Antarnusa ? | Exosfeer ? | 古拉农 ? ? | 亚历山大·库米斯(Alexander Koumis) | Acekagami ? | Highupech ? | 天蝎座 |
maximxls | Star3lord ? | 叉 ? | Zerui Chen ? | Roee Shenberg ? ? | Justas ? | Onako2 |
4ll0w3v1l | J5Y0V6B ?️ | Marcellocirelli ? | Priyanshu Patel | Anna Gorshunova ? |
该项目遵循全企业规范。欢迎任何形式的贡献!
#206↩
#469↩
https://ytpmv.info/how-to-use-uvr/
如果您注册推荐代码,然后添加付款方式,则可以在第一个月的每月账单中节省约5美元。请注意,两个推荐奖励都是论文空间信用额,而不是现金。这是一个艰难的决定,但插入了,因为调试和培训初始模型需要大量的计算能力,而开发人员是学生。 ↩
#456↩