簡體中文
帶有實時支持的so-vits-svc叉子,並大大改進了界面。基於分支4.0 (V1)(OR 4.1 ),模型是兼容的。 4.1不支持模型。其他模型也不支持。
總是要注意很少有影響者對任何新項目/技術都感到非常驚訝的影響者。您需要帶有半構想的每個社交網絡帖子。
2023年發生的聲音改變繁榮已經結束,許多開發人員,不僅僅是該存儲庫中的開發人員都在一段時間內都不是很活躍。
這裡有太多替代方案可在這裡列出:
在其他地方,幾家初創企業改善和銷售了語音改變者(可能是為了獲利)。
自2023年春季以來,該存儲庫的更新僅限於維護。
很難在此處縮小替代方案的列表,但是如果您正在尋找具有更好性能的語音變化器(尤其是在質量以外的延遲方面),請考慮嘗試其他項目。>但是,對於那些想暫時嘗試語音轉換的人來說,該項目可能是理想的選擇(因為它易於安裝)。
QuickVCContentVec的濫用。 1CREPE更準確的音高估算。pip安裝來使用。fairseq 。該BAT文件將自動執行下面描述的步驟。
Windows(由於PYPA/PIPX#940所需的開發版本):
py -3 -m pip install --user git+https://github.com/pypa/pipx.git
py -3 -m pipx ensurepathLinux/MacOS:
python -m pip install --user pipx
python -m pipx ensurepathpipx install so-vits-svc-fork --python=3.11
pipx inject so-vits-svc-fork torch torchaudio --pip-args= " --upgrade " --index-url=https://download.pytorch.org/whl/cu121 # https://download.pytorch.org/whl/nightly/cu121視窗:
py -3.11 -m venv venv
venv S cripts a ctivateLinux/MacOS:
python3.11 -m venv venv
source venv/bin/activateAnaconda:
conda create -n so-vits-svc-fork python=3.11 pip
conda activate so-vits-svc-fork如果在程序文件中安裝了Python,則在不創建虛擬環境的情況下安裝可能會導致PermissionError 。
通過PIP(或使用PIP的您喜歡的軟件包管理器)安裝此信息:
python -m pip install -U pip setuptools wheel
pip install -U torch torchaudio --index-url https://download.pytorch.org/whl/cu121 # https://download.pytorch.org/whl/nightly/cu121
pip install -U so-vits-svc-forkpip install -U torch torchaudio --index-url https://download.pytorch.org/whl/cu121即可。國會議員可能受到支持。--index-url https://download.pytorch.org/whl/cu121與--index-url https://download.pytorch.org/whl/nightly/rocm5.7 。 Windows不支持AMD GPU(#120)。請定期更新此軟件包,以獲取最新功能和錯誤修復。
pip install -U so-vits-svc-fork
# pipx upgrade so-vits-svc-fork GUI通過以下命令啟動:
svcgsvc vcsvc infer source.wav審計的模型可在擁抱面或civitai上使用。
3_HP-Vocal-UVR.pth或UVR-MDX-NET Main 。 3svc pre-split將數據集拆分為多個文件(使用librosa )。svc pre-sd將數據集拆分為多個文件(使用pyannote.audio )。由於準確性問題,可能需要進一步的手動分類。如果說話者用各種語音樣式說話,那麼宣揚的演講風格 - 宣傳者比實際的揚聲器數量更大。由於未解決的依賴關係,請手動安裝pyannote.audio pip install pyannote-audio 。svc pre-classify 。上下箭頭鍵可用於更改播放速度。 4
如果您無法訪問具有超過10 GB VRAM的GPU,則建議使用Google COLAB的免費計劃,並建議使用論文空間的Pro/Growth Plan Play/Growts Plans for Heeby用戶。相反,如果您可以訪問高端GPU,則不建議使用雲服務。
將數據集像dataset_raw/{speaker_id}/**/{wav_file}.{any_format}
svc pre-resample
svc pre-config
svc pre-hubert
svc train -tconfig.json中盡可能增加batch_size ,以匹配train容量。將batch_size設置為auto-{init_batch_size}-{max_n_trials} (或簡單地auto )會自動增加batch_size ,直到發生OOM錯誤,但在某些情況下可能不會有用。CREPE ,請用SVC svc pre-hubert -fm crepe svc pre-hubert 。ContentVec ,請用-t so-vits-svc-4.0v1替換svc pre-config 。訓練可能需要更長的時間,因為由於重複使用傳統初始發電機的重量,某些權重被重置。MS-iSTFT Decoder ,請用svc pre-config svc pre-config -t quickvc Pre-Config。有關更多詳細信息,請運行svc -h或svc <subcommand> -h 。
> svc -h
Usage: svc [OPTIONS] COMMAND [ARGS]...
so-vits-svc allows any folder structure for training data.
However, the following folder structure is recommended.
When training: dataset_raw/{speaker_name}/ ** /{wav_name}.{any_format}
When inference: configs/44k/config.json, logs/44k/G_XXXX.pth
If the folder structure is followed, you DO NOT NEED TO SPECIFY model path, config path, etc.
(The latest model will be automatically loaded.)
To train a model, run pre-resample, pre-config, pre-hubert, train.
To infer a model, run infer.
Options:
-h, --help Show this message and exit.
Commands:
clean Clean up files, only useful if you are using the default file structure
infer Inference
onnx Export model to onnx (currently not working)
pre-classify Classify multiple audio files into multiple files
pre-config Preprocessing part 2: config
pre-hubert Preprocessing part 3: hubert If the HuBERT model is not found, it will be...
pre-resample Preprocessing part 1: resample
pre-sd Speech diarization using pyannote.audio
pre-split Split audio files into multiple files
train Train model If D_0.pth or G_0.pth not found, automatically download from hub.
train-cluster Train k-means clustering
vc Realtime inference from microphone視頻教程
謝謝這些好人(表情符號鑰匙):
34J ? ? ? ? | GarrettConway ? ? | 藍色 ? ? | throflawayAccount01 ? | 緋 ? | Lordmau5 ? ? ? ? | DL909 ? |
滿足256 ? | 皮埃爾利吉·扎加里亞(Pierluigi Zagaria) ? | ruckusmattster ? | Desuka-Art ? | 嘿,fixit | 書呆子囓齒動物 ? | 謝宇 |
Coldcawfee ? | Sbersier ? ? ? | Meldoner ? ? | mmmodeusher ? | 阿隆丹 ? | likkkez ? | 膠帶遊戲 ? |
他 ? | 75aosu ? | Tonyco82 ? | yxlllc ? | 開口 ? | escoolioinglesias ? ? ? | blacksingh ? |
MGS。 M. Thoyib Antarnusa ? | Exosfeer ? | 古拉農 ? ? | 亞歷山大·庫米斯(Alexander Koumis) | Acekagami ? | Highupech ? | 天蠍座 |
maximxls | Star3lord ? | 叉 ? | Zerui Chen ? | Roee Shenberg ? ? | Justas ? | Onako2 |
4ll0w3v1l | J5Y0V6B ? ️ | Marcellocirelli ? | Priyanshu Patel | Anna Gorshunova ? |
該項目遵循全企業規範。歡迎任何形式的貢獻!
#206↩
#469↩
https://ytpmv.info/how-to-use-uvr/
如果您註冊推薦代碼,然後添加付款方式,則可以在第一個月的每月賬單中節省約5美元。請注意,兩個推薦獎勵都是論文空間信用額,而不是現金。這是一個艱難的決定,但插入了,因為調試和培訓初始模型需要大量的計算能力,而開發人員是學生。 ↩
#456↩