Downcodes-Editorberichte: Alibabas Kreativteam hat ein leistungsstarkes KI-Bildreparaturmodell als Open Source bereitgestellt – FLUX-Controlnet-Inpainting. Dieses Modell basiert auf der FLUX.1-dev-Architektur und nutzt riesige Datensätze für das Training mit einer Auflösung von bis zu 768 x 768 und verfügt über eine hochwertige Bilderzeugung und präzise Reparaturfunktionen. Es kann nicht nur die fehlenden Teile des Bildes reparieren, sondern auch Objekte hinzufügen und entfernen und sogar den Bildstil basierend auf der vom Benutzer bereitgestellten Textbeschreibung ändern, was erstaunliche KI-Bildverarbeitungsfunktionen zeigt. Das Modell wurde als Open-Source-Version auf der Hugging Face-Plattform bereitgestellt. Es werden detaillierte Tutorials und Beispielcodes bereitgestellt, um Benutzern den schnellen Einstieg zu erleichtern.
Kürzlich hat das Kreativteam von Alimama ein KI-Bildreparaturmodell namens FLUX-Controlnet-Inpainting als Open Source bereitgestellt. Das Modell basiert auf der FLUX.1-dev-Modellarchitektur und wurde auf 12 Millionen laion2B-Bildern und Alibabas internen Datensätzen mit einer Auflösung von bis zu 768 x 768 trainiert, was eine hochwertige Bildreparatur ermöglicht.

Dieses Tool erbt nicht nur die hochwertigen Bildgenerierungsfunktionen des FLUX.1-dev-Modells, sondern integriert auch geschickt die Vorteile von ControlNet. Es kann Bilder basierend auf Informationen wie Kanten, Strichzeichnungen und Tiefenkarten präzise reparieren und in bestimmten Bereichen Inhalte generieren, die mit der Umgebung übereinstimmen und so beschädigten oder fehlenden Bildteilen neues Leben einhauchen.
Einer der Höhepunkte dieses Modells besteht darin, dass es die verbale Beschreibung des Benutzers verstehen und das Bild basierend auf der Beschreibung genau reparieren kann, z. B. das Hinzufügen oder Entfernen von Objekten zum Bild basierend auf der vom Benutzer bereitgestellten Textbeschreibung und sogar das Ändern des Stils des Bildes.
Das FLUX-Controlnet-Inpainting-Modell ist jetzt Open Source auf der Hugging Face-Plattform und bietet detaillierte Nutzungsanleitungen und Beispielcodes. Benutzer können die Diffusorbibliothek über pip installieren und den Projektcode von GitHub klonen, um schnell die leistungsstarken Funktionen des Modells kennenzulernen .
Das Kreativteam von Alimama gab an, dass sich das aktuell veröffentlichte FLUX-Controlnet-Inpainting-Modell noch in der Alpha-Testphase befindet und die Modellleistung in Zukunft weiter optimieren wird und plant, in Zukunft eine aktualisierte Version zu veröffentlichen.
Projektadresse: https://github.com/alimama-creative/FLUX-Controlnet-Inpainting
Workflow-Download-Adresse: https://huggingface.co/alimama-creative/FLUX.1-dev-Controlnet-Inpainting-Alpha/resolve/main/images/alimama-flux-controlnet-inpaint.json
Alles in allem hat die Open Source des FLUX-Controlnet-Inpainting-Modells neue Durchbrüche im Bereich der KI-Bildwiederherstellung gebracht. Wir freuen uns auf weitere Überraschungen in zukünftigen Versionen! Der Herausgeber von Downcodes wird der weiteren Entwicklung weiterhin Aufmerksamkeit schenken.