Réaliste pour le design d'intérieur
Une API de pipeline de conception d'intérieur personnalisée qui combine un pipeline d'instructions Vision V3.0 réaliste avec la segmentation et le contrôle MLSD. Ce repo utilise le COG pour créer une API dockerisée. Voir la démonstration de réplique pour tester l'API en cours d'exécution.
Utilisation de base
Vous devrez installer COG et Docker pour servir votre modèle en tant qu'API. Pour exécuter une prédiction:
cog predict -i image=@test_images/bedroom_3.jpg prompt= " A bedroom with a bohemian spirit centered around a relaxed canopy bed complemented by a large macrame wall hanging. An eclectic dresser serves as a unique storage solution while an array of potted plants brings life and color to the room "
Pour démarrer votre serveur et servir le modèle en tant qu'API:
cog run -p 5000 python -m cog.server.http
Les arguments d'entrée de l'API sont les suivants:
- Image: L'image fournie sert de base ou de référence pour le processus de génération.
- Invite: l'invite d'entrée est une description de texte qui guide le processus de génération d'image. Il devrait être une description détaillée et spécifique de l'image de sortie souhaitée.
- négatif_prompt: ce paramètre permet de spécifier des invites négatives. Les invites négatives sont des termes ou des descriptions qui doivent être évitées dans l'image générée, aidant à éloigner la sortie des éléments indésirables.
- num_inference_steps: ce paramètre définit le nombre d'étapes de débraillé dans le processus de génération d'images.
- Guidance_scale: le paramètre de l'échelle de guidage ajuste l'influence du guide sans classificateur dans le processus de génération. Des valeurs plus élevées rendront le modèle à se concentrer davantage sur l'invite.
- Prompt_Strinngh: En mode d'insuffisance, ce paramètre contrôle l'influence de l'invite d'entrée sur l'image finale. Une valeur de 1,0 indique une transformation complète en fonction de l'invite.
- Graines: Le paramètre de graines établit une graine aléatoire pour la génération d'images. Une graine spécifique peut être utilisée pour reproduire les résultats, ou en blanc laissé pour une génération aléatoire.
Détails du modèle
Il s'agit d'un pipeline personnalisé inspiré du hackathon de design d'intérieur génératif d'Aicrowd qui utilise la vision réaliste v3.0 comme modèle de base. Voir les pages du modèle Base et ControlNet pour leurs licences respectives. Cette base de code est autorisée sous la licence MIT.
De neuralwork avec ❤️