Документ: https://diffsynth-studio.readthedocs.io/zh-cn/latest/index.html.
DiffSynth Studio — это движок Diffusion. Мы реструктурировали архитектуры, включая Text Encoder, UNet, VAE и другие, сохранив совместимость с моделями сообщества открытого исходного кода и одновременно повысив вычислительную производительность. Мы предоставляем много интересных функций. Наслаждайтесь волшебством моделей Diffusion!
До сих пор DiffSynth Studio поддерживала следующие модели:
25 октября 2024 г. Мы предоставляем обширную поддержку FLUX ControlNet. Этот проект поддерживает множество различных моделей ControlNet, которые можно свободно комбинировать, даже если их структуры различаются. Кроме того, модели ControlNet совместимы с методами уточнения и управления разделами высокого разрешения, что позволяет создавать очень мощные управляемые изображения. См ./examples/ControlNet/ .
8 октября 2024 г. Мы выпускаем расширенную версию LoRA на основе CogVideoX-5B и ExVideo. Вы можете скачать эту модель с ModelScope или HuggingFace.
22 августа 2024 г. В этом проекте поддерживается CogVideoX-5B. Смотрите здесь. Мы предоставляем несколько интересных функций для этой модели преобразования текста в видео, в том числе
22 августа 2024 г. Мы реализовали интересный рисовальщик, поддерживающий все модели преобразования текста в изображение. Теперь вы можете создавать потрясающие изображения с помощью художника при помощи искусственного интеллекта!
21 августа 2024 г. В DiffSynth-Studio поддерживается FLUX.
21 июня 2024 г. ??? Мы предлагаем ExVideo, метод пост-настройки, направленный на расширение возможностей моделей генерации видео. Мы расширили Stable Video Diffusion, чтобы обеспечить создание длинных видео до 128 кадров.
examples/ExVideo .13 июня 2024 г. DiffSynth Studio переводится в ModelScope. Разработчики перешли от «Я» к «Мы». Конечно, я по-прежнему буду участвовать в разработке и обслуживании.
29 января 2024 г. Мы предлагаем Diffutoon — фантастическое решение для затенения мультяшек.
8 декабря 2023 г. Мы решили разработать новый проект, целью которого является раскрытие потенциала моделей диффузии, особенно в синтезе видео. Начата разработка этого проекта.
15 ноября 2023 г. Мы предлагаем FastBlend — мощный алгоритм устранения мерцания видео.
1 октября 2023 г. Мы выпускаем раннюю версию этого проекта, а именно FastSDXL. Попытка создания диффузионного двигателя.
29 августа 2023 г. Мы предлагаем DiffSynth, платформу для синтеза видео.
Установить из исходного кода (рекомендуется):
git clone https://github.com/modelscope/DiffSynth-Studio.git
cd DiffSynth-Studio
pip install -e .
Или установите из pypi:
pip install diffsynth
Примеры Python находятся в examples . Мы предоставляем обзор здесь.
Загрузите предустановленные модели. Идентификаторы моделей можно найти в файле конфигурации.
from diffsynth import download_models
download_models ([ "FLUX.1-dev" , "Kolors" ])Загрузите свои собственные модели.
from diffsynth . models . downloader import download_from_huggingface , download_from_modelscope
# From Modelscope (recommended)
download_from_modelscope ( "Kwai-Kolors/Kolors" , "vae/diffusion_pytorch_model.fp16.bin" , "models/kolors/Kolors/vae" )
# From Huggingface
download_from_huggingface ( "Kwai-Kolors/Kolors" , "vae/diffusion_pytorch_model.fp16.safetensors" , "models/kolors/Kolors/vae" ) CogVideoX-5B выпущен компанией ZhiPu. Мы предоставляем улучшенный конвейер, поддерживающий преобразование текста в видео, редактирование видео, автоматическое масштабирование и интерполяцию видео. examples/video_synthesis
Видео слева генерируется с использованием исходного конвейера преобразования текста в видео, а видео справа является результатом редактирования и интерполяции кадров.
Мы обучили расширенные модели синтеза видео, которые могут генерировать 128 кадров. examples/ExVideo
Рендерите реалистичные видео в плоском стиле и включите функции редактирования видео. examples/Diffutoon
Стилизация видео без видеомоделей. examples/diffsynth
Создавайте изображения высокого разрешения, преодолевая ограничения диффузионных моделей! examples/image_synthesis .
Тонкая настройка LoRA поддерживается в examples/train .
| ПОТОК | Стабильная диффузия 3 |
|---|---|
![]() | ![]() |
| Колорс | Хунюань-ДиТ |
|---|---|
![]() | ![]() |
| Стабильная диффузия | Стабильная диффузия XL |
|---|---|
![]() | ![]() |
Создавайте потрясающие изображения с помощью художника и с помощью искусственного интеллекта!
Это видео не отображается в реальном времени.
Перед запуском WebUI загрузите модели в папку ./models . Смотрите здесь.
Gradio версия pip install gradio
python apps/gradio/DiffSynth_Studio.py

Streamlit версия pip install streamlit streamlit-drawable-canvas
python -m streamlit run apps/streamlit/DiffSynth_Studio.py