简体中文
リアルタイムサポートとインターフェイスが大幅に改善されたso-vits-svcのフォーク。ブランチ4.0 (V1)(または4.1 )に基づいており、モデルは互換性があります。 4.1モデルはサポートされていません。他のモデルもサポートされていません。
常に新しいプロジェクト/テクノロジーに非常に驚いている非常に少数のインフルエンサーに注意してください。すべてのソーシャルネットワーキングポストを半疑いで取る必要があります。
2023年に発生した音声チェンジャーブームは終わりました。このリポジトリだけでなく、多くの開発者はしばらくの間、あまり活発ではありませんでした。
ここにリストする代替品が多すぎますが、
他の場所では、いくつかのスタートアップが改善および販売された音声チェンジャー(おそらく利益のため)です。
このリポジトリの更新は、2023年春以来、メンテナンスに限定されています。
ここでは、代替案のリストを絞り込むことは困難ですが、パフォーマンスがさらに向上している音声チェンジャーを探している場合は、他のプロジェクトを試してみてください(特に品質以外のレイテンシに関して)。>ただし、このプロジェクトは、今のところ音声変換を試してみたい人に最適かもしれません(インストールが簡単だから)。
QuickVC部分的に統合しますContentVecの誤用を修正しました。 1CREPEを使用したより正確なピッチ推定。pipでインストールするだけで使用できます。fairseqをインストールする必要はありません。このバットファイルは、以下で説明する手順を自動的に実行します。
Windows(PYPA/PIPX#940が原因で開発バージョンが必要):
py -3 -m pip install --user git+https://github.com/pypa/pipx.git
py -3 -m pipx ensurepathLinux/macos:
python -m pip install --user pipx
python -m pipx ensurepathpipx install so-vits-svc-fork --python=3.11
pipx inject so-vits-svc-fork torch torchaudio --pip-args= " --upgrade " --index-url=https://download.pytorch.org/whl/cu121 # https://download.pytorch.org/whl/nightly/cu121Windows:
py -3.11 -m venv venv
venv S cripts a ctivateLinux/macos:
python3.11 -m venv venv
source venv/bin/activateアナコンダ:
conda create -n so-vits-svc-fork python=3.11 pip
conda activate so-vits-svc-fork Pythonがプログラムファイルなどにインストールされている場合、仮想環境を作成せずにインストールすると、 PermissionErrorが発生する場合があります。
これをPIP(またはPIPを使用するお気に入りのパッケージマネージャー)を介してインストールします。
python -m pip install -U pip setuptools wheel
pip install -U torch torchaudio --index-url https://download.pytorch.org/whl/cu121 # https://download.pytorch.org/whl/nightly/cu121
pip install -U so-vits-svc-forkpip install -U torch torchaudio --index-url https://download.pytorch.org/whl/cu121を削除するだけです。議員はおそらくサポートされています。--index-url https://download.pytorch.org/whl/nightly/rocm5.7 --index-url https://download.pytorch.org/whl/cu121を置き換えます。 AMD GPUはWindowsではサポートされていません(#120)。このパッケージを定期的に更新して、最新の機能とバグ修正を取得してください。
pip install -U so-vits-svc-fork
# pipx upgrade so-vits-svc-fork GUIは次のコマンドで起動します。
svcgsvc vcsvc infer source.wav前提条件のモデルは、顔やCivitaiを抱きしめて利用できます。
3_HP-Vocal-UVR.pthまたはUVR-MDX-NET Mainをお勧めします。 3svc pre-split使用してデータセットを複数のファイルに分割します( librosaを使用)。svc pre-sdを使用してデータセットを複数のファイルに分割します( pyannote.audioを使用)。精度の問題により、さらなる手動分類が必要になる場合があります。スピーカーがさまざまなスピーチスタイルで話す場合は、スピーカーの実際の数よりも大きいマインスピーカーを設定します。未解決の依存関係が原因で、 pyannote.audioを手動でインストールしてください: pip install pyannote-audio 。svc pre-classify利用可能です。上下の矢印キーを使用して、再生速度を変更できます。 4
10 GBを超えるVRAMを持つGPUにアクセスできない場合、Google Colabの無料プランが軽ユーザーに推奨され、論文スペースのプロ/成長計画はヘビーユーザーに推奨されます。逆に、ハイエンドGPUにアクセスできる場合、クラウドサービスの使用は推奨されません。
データセットのようにデータセットをdataset_raw/{speaker_id}/**/{wav_file}.{any_format} (サブフォルダーと非asciiファイル名は許容できます)を配置し、実行します。
svc pre-resample
svc pre-config
svc pre-hubert
svc train -ttrainコマンドの前にconfig.jsonでできるだけbatch_sizeを増やすことをお勧めします。 batch_size auto-{init_batch_size}-{max_n_trials} (または単にauto )に設定すると、oomエラーが発生するまでbatch_sizeが自動的に増加しますが、場合によっては役に立たない場合があります。CREPEを使用するには、 svc pre-hubert svc pre-hubert -fm crepeに置き換えます。ContentVec正しく使用するには、 svc pre-config -t so-vits-svc-4.0v1に置き換えます。レガシーの初期ジェネレーターの重みを再利用するために、一部の重量がリセットされるため、トレーニングには少し時間がかかる場合があります。MS-iSTFT Decoder使用するには、 svc pre-config svc pre-config -t quickvcに置き換えます。詳細については、 svc -hまたはsvc <subcommand> -hを実行します。
> svc -h
Usage: svc [OPTIONS] COMMAND [ARGS]...
so-vits-svc allows any folder structure for training data.
However, the following folder structure is recommended.
When training: dataset_raw/{speaker_name}/ ** /{wav_name}.{any_format}
When inference: configs/44k/config.json, logs/44k/G_XXXX.pth
If the folder structure is followed, you DO NOT NEED TO SPECIFY model path, config path, etc.
(The latest model will be automatically loaded.)
To train a model, run pre-resample, pre-config, pre-hubert, train.
To infer a model, run infer.
Options:
-h, --help Show this message and exit.
Commands:
clean Clean up files, only useful if you are using the default file structure
infer Inference
onnx Export model to onnx (currently not working)
pre-classify Classify multiple audio files into multiple files
pre-config Preprocessing part 2: config
pre-hubert Preprocessing part 3: hubert If the HuBERT model is not found, it will be...
pre-resample Preprocessing part 1: resample
pre-sd Speech diarization using pyannote.audio
pre-split Split audio files into multiple files
train Train model If D_0.pth or G_0.pth not found, automatically download from hub.
train-cluster Train k-means clustering
vc Realtime inference from microphoneビデオチュートリアル
これらの素晴らしい人々に感謝します(絵文字キー):
34J ? ? ? ? | Garrettconway ? ? | Blueamulet ? ? | throwayaccount01 ? | 緋 ? | lordmau5 ? ? ? ? | DL909 ? |
満足256 ? | Pierluigi Zagaria ? | ラッカマットスター ? | Desuka-Art ? | heyfixit | オタクげっ歯類 ? | 谢宇 |
coldcawfee ? | サバイザー ? ? ? | メルドナー ? ? | mmodeusher ? | アロンダン ? | likkkez ? | ダクトテープゲーム ? |
Xianglong彼 ? | 75aosu ? | Tonyco82 ? | yxlllc ? | 伸びた ? | Escoolioinglesias ? ? ? | ブラックシン ? |
MGS。 M. Thoyib Antarnusa ? | exosfeer ? | グラノン ? ? | アレクサンダー・クーミス | アセカガミ ? | HighUpech ? | Scorpi |
maximxls | Star3lord ? | フォーコズ ? | Zerui Chen ? | Roee Shenberg ? ? | ユスタス ? | Onako2 |
4ll0w3v1l | J5y0v6b ?§ | Marcellocirelli ? | Priyanshu Patel | アンナ・ゴルソノバ ? |
このプロジェクトは、全委員会の仕様に従います。あらゆる種類の貢献を歓迎します!
#206↩
#469↩
https://ytpmv.info/how-to-use-uvr/↩
紹介コードを登録してから支払い方法を追加する場合、最初の月の月次請求で約5ドルを節約できます。両方の紹介報酬は、現金ではなく論文スペースのクレジットであることに注意してください。難しい決定でしたが、最初のモデルをデバッグしてトレーニングするには大量のコンピューティングパワーが必要であり、開発者は学生であるため挿入されました。 ↩
#456↩