?路线图|贡献|当地运行|开放核心
您也可以建立和部署自己!但是,您必须配置环境。
Waggledance.ai是一个实验应用,旨在实现用户指定的目标。它为基于建筑物代理的系统提供了一个友好但有用的用户界面。该项目着重于解释性,可观察性,并发产生和探索。目前,在阿尔帕(Alpha)前,发展理念更喜欢实验而不是稳定性,因为目标解决方案和代理系统正在迅速发展。
waggledance.ai实现了一个目标,并将其传递给计划者,该计划者流式传输了子任务的执行图。执行代理尽可能同时执行每个子任务。为了减少糟糕的结果和幻觉,批评者会审查子沉积物。最终,循环中的人(您!)将能够与单个代理商聊天,并在需要时提供课程校正。
它最初是受自动GPT启发的,并且具有类似于GPT-Researcher中的并发功能。因此,项目的核心原则包括速度,准确性,可观察性和简单性。此外,许多其他代理系统是用Python编写的,因此该项目是一个小的反平衡,并且可以访问大量JavaScript开发人员。
也可以通过TRPC获得(不稳定的)API,以及Next.js中实现的API。客户端主要负责编排和渲染代理执行,而API和服务器端执行代理并存储结果。将来可能会调整这种体系结构。

打字稿。 langchain.js。 T3。 Prisma。 trpc。编织。 Postgres。 Openai API。 Mui Joy
实时项目路线图板。贡献
基本上,一切都会发生!尽管多代理系统有一个漫长而悠久的过去,但该项目就是将过去的技术与最新研究结合在一起。
可以使用Docker或使用Node.js手动部署Waggledance.ai。需要.env var的配置。
docker-compose up --build
npm或yarn也可能起作用。pnpm add turbo --global或使用pnpx turbo代替下面的turbo 。.env.example复制到.env并配置环境变量。寻求帮助,请与不和谐联系。有关明确要求,请参见Env-Schema.mjs。有关所需的环境变量,请参阅.env.example和env-schema.mjs。目前仅支持通过Prisma的Postgres。您可以使用本地Postgres实例(建议使用Docker)或Supabase之类的云提供商。
设置,确保并配置了邮政格雷斯后,运行以下命令:
pnpm db:generate
pnpm db:pushdb:generate从schema.prisma文件( ./packages/db/prisma/schema.prisma )创建本地键入和DB信息。db:push架构推到数据库提供商(默认情况下是PostgreSQL)。turbo dev
# or
pnpm dev该项目已从Create-T3-Turbo分叉以了解更多信息,您可以检查样板文档
确保在解决方案中安装推荐的扩展名,尤其是es-lint 。
每种构建都可以运行覆盖物,并且可能会失败构建。
要获取覆盖错误的完整列表:
turbo lint其中一些可能可以自动固定:
turbo lint:fix以及CI运行的版本:
SKIP_ENV_VALIDATION=true NODE_ENV=production turbo build其余的,您将需要打开关联的文件并自己修复错误。限制极端情况下的ts-ignore 。
作为最佳实践,请在启动功能之前运行turbo lint ,然后完成功能并在发送PR之前修复任何错误。
根据MIT许可,可以免费获得应用程序,软件包,库和整个MonorePo。开发过程是开放的,欢迎每个人加入。将来,我们可能会选择开发已许可用于商业用途的扩展名。