Realisticvision für Innenarchitektur
Eine benutzerdefinierte API für Innenarchitektur -Pipeline, die realistische Vision v3.0 Pipeline mit Segmentierung und MLSD -Steuerung kombiniert. Dieses Repo verwendet COG, um eine dockerisierte API zu erstellen. Siehe die Replikat -Demo, um die laufende API zu testen.
Grundnutzung
Sie müssen COG und Docker installieren lassen, um Ihr Modell als API zu bedienen. Eine Vorhersage durchführen:
cog predict -i image=@test_images/bedroom_3.jpg prompt= " A bedroom with a bohemian spirit centered around a relaxed canopy bed complemented by a large macrame wall hanging. An eclectic dresser serves as a unique storage solution while an array of potted plants brings life and color to the room "
So starten Sie Ihren Server und servieren Sie das Modell als API:
cog run -p 5000 python -m cog.server.http
Die API -Eingabeargumente sind wie folgt:
- Bild: Das bereitgestellte Bild dient als Basis oder Referenz für den Erzeugungsprozess.
- Eingabeaufforderung: Die Eingabeaufforderung ist eine Textbeschreibung, die den Bildgenerierungsprozess leitet. Es sollte eine detaillierte und spezifische Beschreibung des gewünschten Ausgangsbildes sein.
- Negativ_prompt: Dieser Parameter ermöglicht die Angabe negativer Eingabeaufforderungen. Negative Aufforderungen sind Begriffe oder Beschreibungen, die im erzeugten Bild vermieden werden sollten, was dazu beiträgt, die Ausgabe von unerwünschten Elementen abzulenken.
- num_inference_steps: Dieser Parameter definiert die Anzahl der Denoisierungsschritte im Bildgenerierungsprozess.
- GUIDANCE_SCALE: Der Parameter zur Leitfadenskala passt den Einfluss der klassifikatorfreien Führung im Erzeugungsprozess an. Höhere Werte werden das Modell stärker auf die Eingabeaufforderung konzentrieren.
- Eingabeaufforderung_Strength: Im Inpainting -Modus steuert dieser Parameter den Einfluss der Eingabeaufforderung auf das endgültige Bild. Ein Wert von 1,0 zeigt eine vollständige Transformation gemäß der Eingabeaufforderung an.
- Saatgut: Der Samenparameter legt einen zufälligen Samen für die Bilderzeugung fest. Ein spezifischer Samen kann verwendet werden, um die Ergebnisse zu reproduzieren oder für die zufällige Erzeugung leer zu werden.
Modelldetails
Dies ist eine benutzerdefinierte Pipeline, die vom generativen Innenarchitektur -Hackathon von AICrowd inspiriert ist, der realistische Vision v3.0 als Basismodell verwendet. Sehen Sie sich die Basis- und Steuernetz -Modellseiten für ihre jeweiligen Lizenzen an. Diese Codebasis ist unter der MIT -Lizenz lizenziert.
Aus Neuralarbeit mit ❤️