? Recursos | ? Roteiro | Contribuir | ? Execute localmente | ? Open Core
Você também pode construir e implantar -se! No entanto, você deve configurar seu ambiente.
O Wagledance.ai é um aplicativo experimental focado em alcançar metas especificadas pelo usuário. Ele fornece uma interface de usuário amigável, mas opinativa, para a construção de sistemas baseados em agentes. O projeto se concentra na explicação, observabilidade, geração simultânea e exploração. Atualmente em pré-alfa, a filosofia de desenvolvimento prefere a experimentação sobre a estabilidade, à medida que os sistemas de solução de metas e agentes estão evoluindo rapidamente.
O Wagledance.ai pega uma meta e passa para um agente do planejador que transmite um gráfico de execução para subtarefas. Cada subjuga é executada o mais simultaneamente possível pelos agentes de execução . Para reduzir resultados ruins e alucinações, os sub-resultados são revisados por agentes de crítica . Eventualmente, o humano no loop (você!) Será capaz de conversar com agentes individuais e fornecer correções de cursos, se necessário.
Foi originalmente inspirado pelo Auto-GPT e possui recursos de simultaneidade semelhantes aos encontrados no GPT-Researcher. Portanto, os princípios principais do projeto incluem velocidade , precisão , observabilidade e simplicidade . Além disso, muitos outros sistemas agênticos são escritos no Python, portanto, este projeto atua como um pequeno contra-equilíbrio e é acessível ao grande número de desenvolvedores de JavaScript.
Uma API (instável) também está disponível via TRPC, bem como uma API implementada no Next.js. O lado do cliente é principalmente responsável por orquestrar e renderizar as execuções do agente, enquanto a API e o lado do servidor executam os agentes e armazenam os resultados. É provável que essa arquitetura seja ajustada no futuro.

Datilografado﹒ Langchain.js﹒ T3﹒ Prisma﹒ TRPC﹒ Teleaviate﹒ Postgres﹒ API OPENAI﹒ MUI Joy
Placa de roteiro do projeto ao vivo﹒ Contribuir
Basicamente, tudo e tudo dão! Embora os sistemas multi-agentes tenham um passado longo e histórico, este projeto se trata de se casar com as técnicas anteriores com as pesquisas mais recentes.
O Wagledance.ai pode ser implantado localmente usando o Docker ou manualmente usando o Node.js. É necessária a configuração de .env vars.
docker-compose up --build
npm ou yarn também podem funcionar.pnpm add turbo --global ou Use pnpx turbo no lugar do turbo abaixo..env.example para .env e configure as variáveis de ambiente. Para obter ajuda, entre em contato com a discórdia. Consulte Env-schema.mjs para obter requisitos explícitos.Consulte .env.example e Env-schema.mjs para as variáveis de ambiente necessário. Atualmente, apenas o Postgres via prisma é suportado. Você pode usar uma instância local do PostGres (é recomendável usar o Docker) ou um provedor de nuvem como supabase.
Depois de configurar, proteger e configurar o seu PostGres, execute os seguintes comandos:
pnpm db:generate
pnpm db:pushdb:generate cria as tímidas locais e as informações de banco de dados do arquivo schema.prisma ( ./packages/db/prisma/schema.prisma ).db:push empurra o esquema para o provedor de banco de dados (PostgreSQL por padrão).turbo dev
# or
pnpm devEste projeto foi bifurcado do Create-T3-Turbo para saber mais, você pode verificar a documentação da Boilerplate
Certifique-se de instalar as extensões recomendadas na solução, principalmente es-lint .
O linhagem é executado em cada compilação e pode falhar construções.
Para obter uma lista completa de erros de linha executados:
turbo lintAlguns deles podem ser capazes de ser fixados automaticamente com:
turbo lint:fixE a versão que o CI executa:
SKIP_ENV_VALIDATION=true NODE_ENV=production turbo build Para o resto, você precisará abrir o arquivo associado e corrigir os erros. Limite ts-ignore para casos extremos.
Como prática recomendada, execute turbo lint antes de iniciar um recurso e depois de terminar um recurso e corrija qualquer erro antes de enviar um PR .
Os aplicativos, pacotes, bibliotecas e todo o Monorepo estão disponíveis gratuitamente sob a licença do MIT. O processo de desenvolvimento está aberto e todos podem participar. No futuro, podemos optar por desenvolver extensões licenciadas para uso comercial.