
Huggingface like platform for Programable Prompts
Introduction
Solutions clés
Composants clés
Commencer
Avantages clés du cadre des microservices
Feuille de route
Connectez-vous avec nous
Prendre rendez-vous
Licence
Remerciements
SugarCane IA crée un marché ouvert pour les développeurs afin d'emballer et de vendre des forfaits rapides programmables de type NPM à haute précision.
Le produit est conçu pour résoudre les problèmes de précision rapide et de productivité des développeurs en utilisant une approche de microservices pour la gestion invite et LLM, ce qui permet de 80% du temps de développement et du coût du serveur pour les applications LLM.
Focus sur la création de packages d'invites réutilisables et à haute précision et de micro LLM, nous proposons une solution de microservices open source pour autonomiser les 10 millions de développeurs d'applications LLM suivants pour créer des packages invités et former des Micro LLM.
Nous pensons qu'un écosystème de package axé sur la communauté est une solution à long terme pour le développement d'applications LLM similaire à d'autres écosystèmes de langages de programmation. ?
- Build and ship your prompts over APIs as packages
- Log, Label and Manage prompt completion datasets
- Version and backtest prompts for better performance
- Experiment and test Prompts with multiple available LLMs


- Create and share re-usable Prompts in just few clicks
- Collect Feedaback & Training data from actual prompt usage
- Single Click Deploy and Use as an API over any Platform
Cubes de sucre de démonstration:
Générateur de texte: générateur de souhaits d'anniversaire
Générateur d'images: Père Noël au visage de célébrité
Voir la démo: comment créer des cubes de sucre?
- Publish, share and monetise your prompt packages
- Discover and use managed prompts in Sugar Bakery
- Leverage Open datasets and Finetuned Micro LLMs
Les packages rapides sont un élément fondamental de l'IA de canne à sucre, conçu pour rationaliser et simplifier le développement d'applications d'IA pour les développeurs et les scientifiques des données. Ces packages offrent un ensemble structuré et réutilisable d'invites adaptées à des tâches ou des domaines spécifiques, améliorant l'efficacité et la productivité dans la création d'applications d'IA précises.

Les modèles rapides dans l'IA de la canne à sucre sont des outils puissants conçus pour rationaliser la création d'invites d'IA. Ces modèles offrent des structures prédéfinies, des invites prêtes à l'emploi et des espaces réservés qui permettent aux développeurs et aux scientifiques des données d'élaborer des invites rapidement et efficacement.

Micro LLMS, abrégé pour les modèles de micro-langues, sert de base fondamental de l'architecture des microservices de la canne à sucre. Ces modèles de langage réglés de précision sont conçus pour offrir une précision exceptionnelle, une économie et une vitesse, en particulier dans les scénarios de développement d'applications. Par rapport aux LLM de base conventionnels, les micro LLMS excellent en fournissant aux développeurs des résultats supérieurs tout en nécessitant moins de ressources informatiques.

git clone https://github.com/sugarcane-ai/sugarcane-ai.git
cd sugarcane-ai
cp apps/factory/.env.example apps/factory/.env
Replace the values in .env with your own
pnpm installpnpm dev pour démarrer le serviceExplorez notre documentation pour des instructions détaillées sur le début de l'IA de la canne à sucre. Plongez dans notre guide de démarrage rapide pour créer votre première application AI en un rien de temps!
Sugarcane AI est un cadre open source: rejoignez notre communauté croissante de développeurs et de contributeurs. Contribuer à la canne à sucre AI, signaler les problèmes ou soumettre des demandes de fonctionnalités sur notre référentiel GitHub.
Contribuer à la canne à sucre AI avec les étapes suivantes:

L'architecture des microservices de Sugarcane AI change la donne pour le développement d'applications LLM, offrant aux développeurs une approche rationalisée, efficace et évolutive.
Avec un laser concentré sur les micro LLMS, nous fournissons des outils pour la formation, le versioning et l'expédition de ces modèles avec facilité. Vous pouvez publier des micro-LLM à réglage fin sur Sugar Hub, notre plate-forme collaborative et utiliser notre assistant de données pour accélérer la création de modèles.
Cette architecture vous permet d'exploiter le plein potentiel des micro LLM tout en simplifiant votre parcours de développement. Il s'agit du code propre, des itérations rapides et de l'amélioration du travail d'équipe, vous permettant de suralimenter vos projets d'IA.
Les microservices favorisent la collaboration entre les équipes de développement faisant la promotion du code propre et modulaire. Des équipes distinctes peuvent travailler simultanément sur différents services, accélérant le développement et l'innovation pour les applications d'IA de premier ordre.
Dans les microservices, les invites, les données et la couche d'application sont découplées, offrant une flexibilité. Les développeurs peuvent affiner les LLM, gérer les invites et gérer les données indépendamment, permettant une expérimentation et une innovation rapides.
Les microservices offrent une fiabilité améliorée, une évolutivité sans effort et une maintenance rationalisée, garantissant des performances cohérentes de l'application AI sans perturbations, quelle que soit la taille de l'application, tout en permettant des mises à jour et des corrections de bogues efficaces.
Notre feuille de route pour l'IA de la canne à sucre est structurée autour de trois couches critiques dans l'écosystème LLM, chacune conçue pour autonomiser les scientifiques des données et les développeurs d'invite et d'application:
Dans cette phase, nous doublons sur la couche rapide. Notre mission est de vous doter d'outils robustes pour une gestion efficace des ensembles de données, un contrôle rapide et une formation Micro LLM. Attendez-vous à des invites précises et à haute précision au bout des doigts.
La couche de marché est l'endroit où la magie se produit. Nous améliorons ce composant central pour vous permettre d'emballer, de partager et de réutiliser les flux de travail, les invites et les ensembles de données sans effort à travers l'écosystème du développeur, favorisant la collaboration et l'innovation à travers la communauté.
Au cœur de notre feuille de route se trouve la couche LLM, où se déroule la magie de Micro LLMS. Nous réorganisons la façon dont vous vous entraînez et backtest Micro LLMS à l'aide d'ensembles de données étiquetés, le rendant plus intuitif et efficace. Expédifiez de manière transparente vos modèles sur API et plongez dans Sugar Hub, notre plate-forme dédiée pour partager et collaborer sur des micro LLM à réglage fin.
- Train and backtest Micro LLMs using labeled datasets
- Version and ship Fine tuned LLMs over APIs
- Publish fine-tuned Micro LLMs on Sugar Hub
Ensuite, nous nous concentrons sur la couche de flux de travail. Atteignez-vous pour une boîte à outils d'interface utilisateur conviviale qui simplifie la conception, le déploiement et l'intégration du flux de travail. Nous nous faisons sans effort de créer des flux de travail dans des applications Web, mobiles et de chat.
- Implement workflows/plugins with just a few lines of code
- Client libraries supporting multiple languages
- Integrate managed prompt packages from Sugar Hub

Rejoignez-nous dans ce voyage exaltant alors que nous transformons l'IA de la canne à sucre en une plate-forme puissante et conviviale pour des solutions d'automatisation de workflow axées sur Micro LLM adaptées à des développeurs comme vous.
Restez à jour avec les dernières nouvelles, discussions et soutien sur nos communautés.
Vous avez des questions, avez-vous besoin d'aide, de soutien personnalisé ou vous voulez simplement partager vos réflexions sur notre produit? Prenez rendez-vous avec notre équipe sur Calendly ici.
Sugarcane AI est autorisée sous la licence 2.0 Apache - voir le fichier de licence pour plus de détails.
Nous apprécions les contributions de nos membres dédiés de la communauté. Vous faites briller la canne à sucre!
Rejoignez l'IA de la canne à sucre pour simplifier le développement d'applications d'IA. Rendons l'IA accessible à tout le monde!