Il s'agit du référentiel tandem à exploiter sur Linux le webui de formation Kohya_SS converti en Linux.
Lisez les sections de données pour les roues et les packages avant de compiler l'image ou il échouera.
Voici l'implémentation officielle de Google collaboration:
Il existe un package Docking de diffusion stable Automatic1111 Nous maintenons ici: STABLE DIFUSION AUTALATIQUE1111 P2enjoy Docker Version.
Vous pouvez trouver les profils pour compiler les Tensorflows et les Xformrs là-bas, bien qu'il n'y ait pas (encore) d'instructions publiques sur le fait de le faire: vous êtes libre d'essayer de le comprendre par vous-même ou d'attendre patiemment que nous trouvons le temps de faire un guide.
Vous aurez besoin des extensions de Docker Nvidia, veuillez vous référer aux détails des installations ici: https://docs.nvidia.com/datacenter/cloud-native/container-toolkit/install-guide.html#setting-ulp-fvidia-continainer-toolkit
N'oubliez pas d'autoriser les hôtes Docker aux clients vers votre serveur X.
# Somewhat unsecure way to do (I take no responsability if you do this way).
# You should add the exact host but I leave that to you.
xhost local:docker Une fois que vous avez construit le conteneur, vous pouvez simplement l'exécuter via le docker compose --profile kohya up --build et attendez que la construction se termine.
Un message doit aviser que la construction est complète et vous pouvez accéder à l'interface graphique via le lien sur la console.
kohya-docker-kohya-1 | Running on local URL: http://127.0.0.1:7680Bonne formation sur Linux !!!