? Características | ? Hoja de ruta | Contribuir | ? Ejecutar localmente | ? Núcleo abierto
¡También puedes construir y desplegarte tú mismo! Sin embargo, debe configurar su entorno.
Waggledance.AI es una aplicación experimental centrada en lograr objetivos especificados por el usuario. Proporciona una interfaz de usuario amigable pero obstinada para la creación de sistemas basados en agentes. El proyecto se centra en la explicabilidad, la observabilidad, la generación concurrente y la exploración. Actualmente en pre-alfa, la filosofía de desarrollo prefiere la experimentación sobre la estabilidad a medida que la resolución de objetivos y los sistemas de agentes están evolucionando rápidamente.
Waggledance.Ai toma una meta y la pasa a un agente de planificador que transmite un gráfico de ejecución para sub-tareas. Cada subtrasia se ejecuta lo más simultáneamente posible por los agentes de ejecución . Para reducir los malos resultados y las alucinaciones, los sub-resultados son revisados por los agentes de las críticas . Eventualmente, el humano en el bucle (¡usted!) Podrá chatear con agentes individuales y proporcionar correcciones de curso si es necesario.
Originalmente se inspiró en Auto-GPT, y tiene características de concurrencia similares a las que se encuentran en GPT-Researcher. Por lo tanto, los principios centrales del proyecto incluyen velocidad , precisión , observabilidad y simplicidad . Además, muchos otros sistemas de agente están escritos en Python, por lo que este proyecto actúa como un pequeño contraalance, y es accesible para la gran cantidad de desarrolladores de JavaScript.
Una API (inestable) también está disponible a través de TRPC, así como una API implementada dentro de Next.js. El lado del cliente es principalmente responsable de orquestar y representar las ejecuciones de agentes, mientras que la API y el lado del servidor ejecutan a los agentes y almacena los resultados. Es probable que esta arquitectura se ajuste en el futuro.

Mecanografiado﹒ Langchain.js﹒ T3﹒ Prisma﹒ TRPC﹒ Tejido﹒ Postgres﹒ API OPERAI﹒ Mui Joy
Junta de hoja de ruta del proyecto en vivo﹒ Contribuir
¡Básicamente, cualquier cosa y todo va! Aunque los sistemas de múltiples agentes tienen un pasado largo y histórico, este proyecto se trata de casarse con las técnicas pasadas con las últimas investigaciones.
Waggledance.Ai se puede implementar localmente usando Docker o manualmente usando Node.js. Se requiere la configuración de .env vars.
docker-compose up --build
npm o yarn también pueden funcionar.pnpm add turbo --global o usar pnpx turbo en lugar de turbo a continuación..env.example a .env y configure las variables de entorno. Para obtener ayuda, comuníquese con Discord. Consulte env-schema.mjs para requisitos explícitos.Consulte .env.Esmample y env-schema.mjs para las variables de entorno requeridas. Actualmente, solo es compatible con Postgres a través de Prisma. Puede usar una instancia local de Postgres (se recomienda usar Docker) o un proveedor de nubes como Supabase.
Una vez que haya configurado, asegurado y configurado su Postgres, ejecute los siguientes comandos:
pnpm db:generate
pnpm db:pushdb:generate crea la información local y la información de DB del archivo Schema.prisma ( ./packages/db/prisma/schema.prisma ).db:push Puss el esquema al proveedor de la base de datos (PostgreSQL de forma predeterminada).turbo dev
# or
pnpm devEste proyecto fue bifurcado de Create-T3-Turbo para obtener más información, puede verificar la documentación de Boilerplate
Asegúrese de instalar las extensiones recomendadas en la solución, particularmente es-lint .
La pelusa se ejecuta en cada compilación y puede fallar las compilaciones.
Para obtener una lista completa de errores de pelusa:
turbo lintAlgunos de estos pueden ser fijos automáticos con:
turbo lint:fixY la versión que ejecuta el CI:
SKIP_ENV_VALIDATION=true NODE_ENV=production turbo build Para el resto, deberá abrir el archivo asociado y corregir los errores usted mismo. Limite ts-ignore para casos extremos.
Como una mejor práctica, ejecute turbo lint antes de comenzar una función y después de terminar una función y corregir cualquier error antes de enviar un PR .
Las aplicaciones, los paquetes, las bibliotecas y todo el Monorepo están disponibles gratuitamente bajo la licencia MIT. El proceso de desarrollo está abierto y todos son bienvenidos para unirse. En el futuro, podemos elegir desarrollar extensiones con licencia para uso comercial.