? Caractéristiques | ? Feuille de route | Contribuer | ? Exécutez localement | «Core ouvert
Vous pouvez également vous construire et vous déployer! Cependant, vous devez configurer votre environnement.
Waggledance.ai est une application expérimentale axée sur la réalisation des objectifs spécifiés par l'utilisateur. Il fournit une interface utilisateur conviviale mais avisée pour la construction de systèmes basés sur des agents. Le projet se concentre sur l'explication, l'observabilité, la génération simultanée et l'exploration. Actuellement en pré-alpha, la philosophie de développement préfère l'expérimentation sur la stabilité à mesure que la résolution d'objectifs et les systèmes d'agent évoluent rapidement.
Waggledance.ai prend un objectif et le transmet à un agent de planificateur qui diffuse un graphique d'exécution pour les sous-tâches. Chaque sous-tâche est exécutée aussi simultanément que possible par des agents d'exécution . Pour réduire les mauvais résultats et les hallucinations, les sous-résultats sont examinés par les agents de la critique . Finalement, l' humain dans la boucle (vous!) Pourra discuter avec des agents individuels et fournir des corrections de cours si nécessaire.
Il a été initialement inspiré par Auto-GPT et a des caractéristiques de concurrence similaires à celles trouvées dans GPT-Researcher. Par conséquent, les principes de base du projet comprennent la vitesse , la précision , l'observabilité et la simplicité . De plus, de nombreux autres systèmes agentiques sont écrits en Python, donc ce projet agit comme un petit contre-équilibre et est accessible au grand nombre de développeurs JavaScript.
Une API (instable) est également disponible via TRPC ainsi qu'une API implémentée dans Next.js. Le côté client est principalement responsable de l'orchestration et du rendu des exécutions des agents, tandis que l'API et le côté serveur exécutent les agents et stocke les résultats. Cette architecture est susceptible d'être ajustée à l'avenir.

TypeScript﹒ Langchain.js﹒ T3﹒ Prisma﹒ trpc﹒ Terminer﹒ Postgres﹒ API Openai﹒ Mui Joy
Conseil de la feuille de route du projet en direct﹒ Contribuer
Fondamentalement, tout et tout se passe! Bien que les systèmes multi-agents aient un passé long et corrigé, ce projet consiste à épouser les techniques passées avec les dernières recherches.
waggledance.ai peut être déployé localement à l'aide de docker ou manuellement à l'aide de node.js. La configuration de .env vars est requise.
docker-compose up --build
npm ou yarn peut également fonctionner.pnpm add turbo --global ou utiliser pnpx turbo à la place du turbo ci-dessous..env.example à .env et configurer les variables d'environnement. Pour obtenir de l'aide, veuillez contacter Discord. Voir Env-Schema.MJS pour les exigences explicites.Reportez-vous à .env.example et env-Schema.mjs pour les variables d'environnement requises. Actuellement, seuls Postgres via PRISMA sont soutenus. Vous pouvez utiliser une instance Postgres locale (il est recommandé d'utiliser Docker) ou un fournisseur de cloud tel que Supabase.
Une fois que vous avez configuré, sécurisé et configuré votre postgres, exécutez les commandes suivantes:
pnpm db:generate
pnpm db:pushdb:generate crée les dactylographies locales et les informations DB du fichier schema.primma ( ./packages/db/prisma/schema.prisma ).db:push pousse le schéma au fournisseur de base de données (PostgreSQL par défaut).turbo dev
# or
pnpm devCe projet a été fourchu à partir de Create-T3-Turbo pour en savoir plus, vous pouvez vérifier la documentation de la passerelle
Assurez-vous d'installer les extensions recommandées dans la solution, en particulier es-lint .
La liaison est exécutée sur chaque version et peut échouer des versions.
Pour obtenir une liste complète des erreurs de liaison exécutées:
turbo lintCertains d'entre eux peuvent être en mesure d'être automatiquement fixés:
turbo lint:fixEt la version que le CI gère:
SKIP_ENV_VALIDATION=true NODE_ENV=production turbo build Pour le reste, vous devrez ouvrir le fichier associé et corriger les erreurs vous-même. Limitez ts-ignore pour les cas extrêmes.
En tant que meilleure pratique, exécutez turbo lint avant de démarrer une fonctionnalité et après avoir terminé une fonctionnalité et corriger toutes les erreurs avant d'envoyer un PR .
Les applications, les packages, les bibliothèques et l'ensemble du Monorepo sont disponibles gratuitement sous la licence MIT. Le processus de développement est ouvert et tout le monde est invité à rejoindre. À l'avenir, nous pouvons choisir de développer des extensions licenciées à des fins commerciales.