?機能| ?ロードマップ|貢献| ?ローカルで実行| ?オープンコア
自分自身を構築して展開することもできます!ただし、環境を構成する必要があります。
waggledance.aiは、ユーザー指定の目標を達成することに焦点を当てた実験的アプリケーションです。エージェントベースのシステムを構築するためのフレンドリーでありながら意見のあるユーザーインターフェイスを提供します。このプロジェクトは、説明可能性、観察性、同時生成、および探索に焦点を当てています。現在、アルファ以前では、開発哲学は、目標解決とエージェントシステムが急速に進化しているため、安定性に関する実験を好みます。
waggledance.aiは目標を達成し、サブタスクの実行グラフをストリーミングするプランナーエージェントに渡します。各サブタスクは、実行エージェントによって可能な限り同時に実行されます。貧弱な結果と幻覚を減らすために、批判エージェントによってサブ反応がレビューされます。最終的に、ループの人間(あなた!)は、個々のエージェントとチャットし、必要に応じてコース修正を提供することができます。
もともとはAuto-GPTに触発され、GPT-Researcherに見られるものと同様の並行性機能を備えています。したがって、プロジェクトのコアの教義には、速度、精度、観察性、およびシンプルさが含まれます。さらに、他の多くのエージェントシステムはPythonで記述されているため、このプロジェクトは小さなカウンターバランスとして機能し、多数のJavaScript開発者がアクセスできます。
(不安定な)APIは、TRPCとnext.jsに実装されたAPIも介して利用できます。クライアント側は、APIとサーバー側がエージェントを実行して結果を保存する一方で、エージェントの実行を調整およびレンダリングすることに主に責任があります。このアーキテクチャは、将来調整される可能性があります。

タイプスクリプト。 langchain.js T3。プリスマ。 TRPC。 weaviate。ポストグレス。 Openai API。ムイ・ジョイ
ライブプロジェクトロードマップボード。貢献する
基本的に、何でもすべてが行きます!マルチエージェントシステムには長い過去がありますが、このプロジェクトは過去のテクニックと最新の研究と結婚することです。
waggledance.aiは、dockerを使用してローカルに展開したり、node.jsを使用して手動で展開できます。 .env VARSの構成が必要です。
docker-compose up --build
npmまたはyarnも同様に機能する場合があります。pnpm add turbo --globalか、以下のturboの代わりにpnpx turboを使用します。.env.example to .envに環境変数を構成します。助けを求めて、不一致に連絡してください。明示的な要件については、env-schema.mjsを参照してください。必要な環境変数については、.env.exampleおよびenv-schema.mjsを参照してください。現在、Prismaを介したPostgresのみがサポートされています。ローカルPostgresインスタンス(Dockerを使用することをお勧めします)またはSupabaseなどのクラウドプロバイダーを使用できます。
Postgresを設定、保護、構成したら、次のコマンドを実行します。
pnpm db:generate
pnpm db:pushdb:generate schema.prismaファイル( ./packages/db/prisma/schema.prisma )からローカルタイピングとdb情報を作成します。db:pushスキーマをデータベースプロバイダーに押します(デフォルトではPostgreSQL)。turbo dev
# or
pnpm devこのプロジェクトは、Create-T3-Turboからフォークされ、詳細を確認するには、Voilerplateのドキュメントを確認できます。
推奨される拡張機能、特にes-lintに推奨される拡張機能をインストールしてください。
糸くずは各ビルドで実行され、ビルドに失敗する可能性があります。
糸くずエラーの完全なリストを取得するには、実行されます。
turbo lintこれらのいくつかは、以下で自動固定できる場合があります。
turbo lint:fixCIが実行するバージョン:
SKIP_ENV_VALIDATION=true NODE_ENV=production turbo build残りについては、関連するファイルを開き、自分でエラーを修正する必要があります。極端なケースの場合、 ts-ignore制限します。
ベストプラクティスとして、機能を開始する前にturbo lintを実行し、機能を完了し、 PRを送信する前にエラーを修正した後。
アプリケーション、パッケージ、ライブラリ、およびモノレポ全体は、MITライセンスの下で自由に利用できます。開発プロセスは開かれており、誰もが参加できます。将来的には、商業用にライセンスされている拡張機能を開発することを選択する場合があります。