Rapports de l'éditeur de downcodes : l'équipe créative d'Alibaba a mis en open source un puissant modèle de réparation d'images IA - FLUX-Controlnet-Inpainting. Ce modèle est basé sur l'architecture FLUX.1-dev et utilise des ensembles de données massifs pour la formation, avec une résolution allant jusqu'à 768 x 768, et dispose d'une génération d'images de haute qualité et de capacités de réparation précises. Il peut non seulement réparer les parties manquantes de l'image, mais également ajouter, supprimer des objets et même modifier le style de l'image en fonction de la description textuelle fournie par l'utilisateur, montrant ainsi d'étonnantes capacités de traitement d'image IA. Le modèle a été open source sur la plateforme Hugging Face, et des didacticiels détaillés et des exemples de codes sont fournis pour permettre aux utilisateurs de démarrer rapidement.
Récemment, l’équipe créative d’Alimama a ouvert un modèle de réparation d’images IA appelé FLUX-Controlnet-Inpainting. Le modèle est basé sur l'architecture de modèle FLUX.1-dev et a été formé sur 12 millions d'images laion2B et les ensembles de données internes d'Alibaba, avec une résolution allant jusqu'à 768 x 768, capable de réparer des images de haute qualité.

Cet outil hérite non seulement des capacités de génération d'images de haute qualité du modèle FLUX.1-dev, mais intègre également intelligemment les avantages de ControlNet. Il peut réparer avec précision les images en fonction d'informations telles que les contours, les dessins au trait et les cartes de profondeur, et générer du contenu dans des zones désignées qui sont cohérentes avec l'environnement environnant, donnant ainsi une nouvelle vie aux parties d'image endommagées ou manquantes.
L'un des points forts de ce modèle est qu'il peut comprendre la description verbale de l'utilisateur et réparer avec précision l'image en fonction de la description, par exemple en ajoutant ou en supprimant des objets de l'image en fonction de la description textuelle fournie par l'utilisateur, et même en modifiant le style. de l'image.
Le modèle FLUX-Controlnet-Inpainting est désormais open source sur la plateforme Hugging Face et fournit des didacticiels d'utilisation détaillés et des exemples de codes. Les utilisateurs peuvent installer la bibliothèque de diffuseurs via pip et cloner le code du projet depuis GitHub pour découvrir rapidement les puissantes fonctions du modèle. .
L'équipe créative d'Alimama a déclaré que le modèle FLUX-Controlnet-Inpainting actuellement publié est encore en phase de test alpha et qu'elle continuera à optimiser les performances du modèle à l'avenir et prévoit de publier une version mise à jour à l'avenir.
Adresse du projet : https://github.com/alimama-creative/FLUX-Controlnet-Inpainting
Adresse de téléchargement du flux de travail : https://huggingface.co/alimama-creative/FLUX.1-dev-Controlnet-Inpainting-Alpha/resolve/main/images/alimama-flux-controlnet-inpaint.json
Dans l’ensemble, l’open source du modèle FLUX-Controlnet-Inpainting a apporté de nouvelles avancées dans le domaine de la restauration d’images IA. Nous attendons avec impatience d’autres surprises dans les versions futures ! L'éditeur de Downcodes continuera à prêter attention à son évolution ultérieure.