
Huggingface like platform for Programable Prompts
介绍
关键解决方案
关键组件
入门
微服务框架的主要好处
路线图
与我们联系
预约
执照
致谢
甘蔗AI正在为开发人员打包和销售高级,类似于NPM的可编程及时包装的开发人员创建一个开阔的市场。
该产品旨在通过利用微服务方法来及时和LLM管理,以解决迅速准确性和开发人员生产率的问题,从而节省了LLM应用程序的80%的开发时间和服务器成本。
专注于创建可重复使用的高临界及时及其Micro LLMS,我们提供了一种开源微服务解决方案,以增强接下来的1000万个LLM应用程序开发人员的能力,以构建及时的包装和培训Micro LLMS。
我们认为,社区驱动的软件包生态系统是LLM应用程序开发类似于其他编程语言生态系统的长期解决方案。 ?
- Build and ship your prompts over APIs as packages
- Log, Label and Manage prompt completion datasets
- Version and backtest prompts for better performance
- Experiment and test Prompts with multiple available LLMs


- Create and share re-usable Prompts in just few clicks
- Collect Feedaback & Training data from actual prompt usage
- Single Click Deploy and Use as an API over any Platform
演示糖块:
文本生成器:生日愿望生成器
图像生成器:与名人脸的圣诞老人
查看演示:如何制作糖块?
- Publish, share and monetise your prompt packages
- Discover and use managed prompts in Sugar Bakery
- Leverage Open datasets and Finetuned Micro LLMs
及时包装是甘蔗AI的基本组成部分,旨在简化和简化开发人员和数据科学家的AI应用程序开发。这些软件包提供了一套可重复使用的提示,适合特定任务或域名,从而提高了创建准确的AI应用程序的效率和生产力。

甘蔗AI中的及时模板是强大的工具,旨在简化AI提示的创建。这些模板提供预定义的结构,现成的提示以及占位符,使开发人员和数据科学家可以快速有效地制作提示。

Micro LLM(用于微语言模型的缩写)是AI Microservices体系结构的核心基础。这些精确调整的语言模型旨在提供出色的准确性,成本效益和速度,尤其是在应用程序开发方案中。与传统的基础LLM相比,Micro LLM excel通过为开发人员提供卓越的结果,同时需要更少的计算资源。

git clone https://github.com/sugarcane-ai/sugarcane-ai.git
cd sugarcane-ai
cp apps/factory/.env.example apps/factory/.env
Replace the values in .env with your own
pnpm installpnpm dev开始服务探索我们的文档,以获取有关甘蔗AI入门的详细说明。潜入我们的快速启动指南,以立即构建您的第一个AI应用程序!
甘蔗AI是一个开源框架:加入我们不断增长的开发人员和贡献者社区。在我们的Github存储库中为甘蔗AI做出贡献,报告发出或提交功能请求。
为甘蔗AI做出以下步骤:

甘蔗AI的微服务体系结构是LLM应用程序开发的游戏规则改变者,为开发人员提供了一种简化,高效且可扩展的方法。
通过激光专注于微LLM,我们可以轻松地提供培训,版本控制和运输这些模型的工具。您可以在我们的协作平台Sugar Hub上发布微型Micro LLM,并利用我们的数据助手来加快模型创建。
这种体系结构使您能够利用微型LLM的全部潜力,同时简化您的开发旅程。这是关于干净的代码,快速迭代和改进的团队合作,使您能够增强AI项目。
微服务促进了开发团队之间促进清洁和模块化代码的合作。单独的团队可以同时开发不同的服务,从而加快了一流的AI应用程序的开发和创新。
在微服务中,提示,数据和应用层被解耦,提供了灵活性。开发人员可以对LLM进行微调,管理提示和独立处理数据,从而可以快速实验和创新。
微服务提供可靠的可靠性,轻松的可伸缩性和简化的维护,确保AI应用程序性能一致而无需中断,无论应用程序尺寸如何,同时允许有效的更新和错误修复。
我们的甘蔗AI的路线图在LLM生态系统内的三个关键层构造,每个层都旨在增强数据科学家的能力并及时和应用程序开发人员:
在此阶段,我们将在及时层上加倍。我们的任务是为您配备有效的工具,以进行有效的数据集管理,及时控制和Micro LLM培训。期望您的触手可及的精确和高临界性提示。
市场层是魔术发生的地方。我们正在增强此核心组件,使您可以在开发人员生态系统中轻松打包,共享和重复使用工作流,提示和数据集,从而促进整个社区的协作和创新。
路线图的核心是LLM层,Micro LLM的魔力在其中展开。我们正在使用标记的数据集对您进行训练和反测试微LLM的方式进行修改,从而更加直观和高效。无缝将模型通过API运送,然后潜入Sugar Hub,这是我们专门的平台共享和合作在微型微型LLM上进行合作。
- Train and backtest Micro LLMs using labeled datasets
- Version and ship Fine tuned LLMs over APIs
- Publish fine-tuned Micro LLMs on Sugar Hub
接下来,我们将重点转移到工作流层。为自己的用户友好的UI工具包做好准备,该工具包简化了工作流程设计,部署和集成。我们将毫不费力地将工作流构建到网络,移动和聊天应用程序中。
- Implement workflows/plugins with just a few lines of code
- Client libraries supporting multiple languages
- Integrate managed prompt packages from Sugar Hub

加入我们的这一令人振奋的旅程,因为我们将甘蔗AI转变为一个功能强大且用户友好的平台,用于针对像您这样的开发人员量身定制的Micro LLM驱动的工作流程自动化解决方案。
对我们社区的最新新闻,讨论和支持保持最新信息。
有问题,需要帮助,个性化的支持,或者只是想分享您对我们产品的想法?在这里与我们的团队预约。
甘蔗AI已根据Apache许可证2.0获得许可 - 有关详细信息,请参见许可证文件。
我们感谢我们敬业的社区成员的贡献。您使甘蔗AI发光!
加入甘蔗AI,简化AI应用程序开发。让我们让每个人都可以访问AI!