简体中文
Вилка so-vits-svc с поддержкой в реальном времени и значительно улучшенным интерфейсом . На основе ветви 4.0 (v1) (или 4.1 ) и модели совместимы. 4.1 Модели не поддерживаются. Другие модели также не поддерживаются.
Всегда остерегайтесь очень немногих влиятельных лиц, которые достаточно удивлены любым новым проектом/технологиями. Вам нужно взять каждый пост социальной сети с полупрохождением.
Высокий бум голоса, который произошел в 2023 году, подошел к концу, и многие разработчики, а не только те, которые в этом репозитории не были очень активными.
Здесь слишком много альтернатив, но:
В других местах несколько стартапов улучшили и продали голосовые изменения (вероятно, для получения прибыли).
Обновления этого хранилища были ограничены техническим обслуживанием с весны 2023 года.
Здесь трудно сузить список альтернатив, но, пожалуйста, попробовать другие проекты, если вы ищете правила голоса с еще лучшей производительностью (особенно с точки зрения задержки, отличной от качества).>Тем не менее, этот проект может быть идеальным для тех, кто хочет попробовать преобразование голоса на данный момент (потому что его легко установить).
QuickVCContentVec в исходном хранилище. 1CREPE .pip .fairseq .Этот файл BAT автоматически выполнит шаги, описанные ниже.
Windows (версия разработки, необходимая из -за PYPA/PIPX#940):
py -3 -m pip install --user git+https://github.com/pypa/pipx.git
py -3 -m pipx ensurepathLinux/macOS:
python -m pip install --user pipx
python -m pipx ensurepathpipx install so-vits-svc-fork --python=3.11
pipx inject so-vits-svc-fork torch torchaudio --pip-args= " --upgrade " --index-url=https://download.pytorch.org/whl/cu121 # https://download.pytorch.org/whl/nightly/cu121Windows:
py -3.11 -m venv venv
venv S cripts a ctivateLinux/macOS:
python3.11 -m venv venv
source venv/bin/activateAnaconda:
conda create -n so-vits-svc-fork python=3.11 pip
conda activate so-vits-svc-fork Установка без создания виртуальной среды может привести к PermissionError , если Python установлен в программных файлах и т. Д.
Установите это через PIP (или ваш любимый менеджер пакетов, который использует PIP):
python -m pip install -U pip setuptools wheel
pip install -U torch torchaudio --index-url https://download.pytorch.org/whl/cu121 # https://download.pytorch.org/whl/nightly/cu121
pip install -U so-vits-svc-forkpip install -U torch torchaudio --index-url https://download.pytorch.org/whl/cu121 . Депутаты, вероятно, поддерживаются.--index-url https://download.pytorch.org/whl/cu121 с --index-url https://download.pytorch.org/whl/nightly/rocm5.7 AMD -графические процессоры не поддерживаются в Windows (#120).Пожалуйста, регулярно обновляйте этот пакет, чтобы получить последние функции и исправления ошибок.
pip install -U so-vits-svc-fork
# pipx upgrade so-vits-svc-fork GUI запускается со следующей командой:
svcgsvc vcsvc infer source.wavПредварительные модели доступны для обнимающего лица или Civitai.
3_HP-Vocal-UVR.pth или UVR-MDX-NET Main рекомендуется. 3svc pre-split для разделения набора данных на несколько файлов (с помощью librosa ).svc pre-sd чтобы разделить набор данных на несколько файлов (с помощью pyannote.audio ). Дальнейшая ручная классификация может потребоваться из -за проблем точности. Если ораторы говорят с различными стилями речи, устанавливаются-мимические высказывания больше, чем фактическое количество динамиков. Из-за неразрешенных зависимостей, пожалуйста, установите pyannote.audio вручную: pip install pyannote-audio .svc pre-classify . Клавиши стрелки вверх и вниз могут использоваться для изменения скорости воспроизведения. 4
Если у вас нет доступа к графическому процессору с более чем 10 ГБ VRAM, бесплатный план Google Colab рекомендуется для пользователей света, и для тяжелых пользователей рекомендуется план Pro/рост. И наоборот, если у вас есть доступ к высококачественному GPU, использование облачных сервисов не рекомендуется.
Разместите свой набор данных, например, dataset_raw/{speaker_id}/**/{wav_file}.{any_format} (подпапки и не имена файлов, не являющихся ASCII, являются приемлемыми) и запустите:
svc pre-resample
svc pre-config
svc pre-hubert
svc train -tbatch_size в config.json перед командой train , чтобы соответствовать емкости VRAM. Установка batch_size на auto-{init_batch_size}-{max_n_trials} (или просто auto ) автоматически увеличивает batch_size до тех пор, пока не произойдет ошибка OOM, но в некоторых случаях не может быть полезна.CREPE , замените svc pre-hubert на svc pre-hubert -fm crepe .ContentVec , замените svc pre-config на -t so-vits-svc-4.0v1 . Обучение может занять немного больше времени, потому что некоторые веса сбрасываются из -за повторного использования унаследованных весов генератора.MS-iSTFT Decoder , замените svc pre-config на svc pre-config -t quickvc . Для получения более подробной информации запустите svc -h или svc <subcommand> -h .
> svc -h
Usage: svc [OPTIONS] COMMAND [ARGS]...
so-vits-svc allows any folder structure for training data.
However, the following folder structure is recommended.
When training: dataset_raw/{speaker_name}/ ** /{wav_name}.{any_format}
When inference: configs/44k/config.json, logs/44k/G_XXXX.pth
If the folder structure is followed, you DO NOT NEED TO SPECIFY model path, config path, etc.
(The latest model will be automatically loaded.)
To train a model, run pre-resample, pre-config, pre-hubert, train.
To infer a model, run infer.
Options:
-h, --help Show this message and exit.
Commands:
clean Clean up files, only useful if you are using the default file structure
infer Inference
onnx Export model to onnx (currently not working)
pre-classify Classify multiple audio files into multiple files
pre-config Preprocessing part 2: config
pre-hubert Preprocessing part 3: hubert If the HuBERT model is not found, it will be...
pre-resample Preprocessing part 1: resample
pre-sd Speech diarization using pyannote.audio
pre-split Split audio files into multiple files
train Train model If D_0.pth or G_0.pth not found, automatically download from hub.
train-cluster Train k-means clustering
vc Realtime inference from microphoneВидеоурок
Спасибо этим замечательным людям (ключ эмодзи):
34J ? ? ? ? | GarrettConway ? ? | Blueamulet ? ? | Rowathawayaccount01 ? | 緋 ? | Лордмау5 ? ? ? ? | DL909 ? |
Удовлетворение256 ? | Пьерлуиджи Загария ? | Ruckusmattster ? | Desuka-Art ? | Привет | Занудный грызун ? | 谢宇 |
ColdCawfee ? | Sbersier ? ? ? | Мельдонер ? ? | Mmodeusher ? | Алондан ? | Лайккез ? | Duct ленточные игры ? |
Xianglong он ? | 75AOSU ? | Tonyco82 ? | yxlllc ? | пробитый ? | EscoolioingleSias ? ? ? | Блэксингх ? |
Мгс. М. Тойиб Антарнаса ? | Exosfeer ? | Гуранон ? ? | Александр Кумис | Ацекагами ? | Highupech ? | Скорпи |
Maximxls | Star3lord ? | Форкоз ? | Зеруи Чен ? | Рои Шенберг ? ? | Джасас ? | Onako2 |
4ll0w3v1l | J5y0v6b ? ️ | Марцеллоцирелли ? | Прияншу Патель | Анна Горшунова ? |
Этот проект следует за спецификацией всех контролей. Взносы любого вида приветствуются!
#206 ↩
#469 ↩
https://ytpmv.info/how-to-use-uvr/ ↩
Если вы зарегистрируете реферальный код, а затем добавите метод оплаты, вы можете сэкономить около 5 долларов США на ежемесячном биллинге вашего первого месяца. Обратите внимание, что обе реферальные вознаграждения - это кредиты Paperpace, а не деньги. Это было сложное решение, но вставлено потому, что отладка и обучение первоначальной модели требует большого количества вычислительной мощности, а разработчик - студент. ↩
#456 ↩