cogniverse
1.0.0
通过Langchain利用LLM的Web应用程序。
预先提示您的机器人,并将它们与美国不和谐和松弛等消息平台集成在一起。
节点v18.16.0
NPM 9.5.1
运行nvm use使用正确的节点版本。
(遵循.env.example文件中的示例)
使用以下变量创建/packages/backend/prisma中的.env文件:(请按照.env.example中的示例)
DATABASE_URL表示数据库连接字符串使用以下变量创建 /packages /后端中创建.env.local文件:
PORTALLOWED_DOMAINS domains cors允许的域JWT_SECRET用于签署JWT令牌的秘密OPEN_AI_API_KEY您组织的OpenAI API密钥PINECONE_API_KEY你的松果api键PINECONE_INDEX您的Pinecone索引名称PINECONE_ENVIRONMENT your pinecone环境名称GITHUB_OAUTH_CLIENT_SECRET github oauth客户端秘密
GITHUB_OAUTH_CLIENT_ID github oauth客户端ID
DISCORD_OAUTH_CLIENT_SECRET discord oauth的客户端秘密
DISCORD_OAUTH_CLIENT_ID discord oauth的客户端ID
DISCORD_OAUTH_REDIRECT_URI discord oauth的重定向URI
DISCORD_BOT_TOKEN your discord bot令牌
SLACK_BOT_TOKEN你的松弛机器人令牌
SLACK_SIGNING_SECRET您的Slack Signing Secret
使用以下变量创建 /packages /frontend中的.env.local文件:
NEXT_PUBLIC_BACKEND_API后端API URL(如果适用,则包括端口)NEXT_PUBLIC_GITHUB_OAUTH_CLIENT_ID github oauth客户端IDNEXT_PUBLIC_DISCORD_OAUTH_CLIENT_ID discord oauth客户端IDNEXT_PUBLIC_DISCORD_OAUTH_URL discord oauth url 安装依赖项
npm install
Prisma模式迁移
npm run prisma:migrate
Prisma生成客户
npm run prisma:generate
构建共享类型
npm run shared:build
在开发模式下启动后端服务器
npm run start:backend:dev
在开发模式下启动前端服务器
npm run start:frontend:dev
在本地构建图像
docker build -t cogniverse-frontend . -f frontend.Dockerfile
docker build -t cogniverse-backend . -f backend.Dockerfile