Ich habe nicht die Zeit, es zu pflegen, und es braucht eine Reihe von Upgrades, um produktionsbereit zu sein. Lassen Sie mich wissen, ob Sie die Wartung übernehmen möchten.

Ein einfaches Rahmen, um Lamaindex zum Erstellen und Bereitstellen von LLM -Agenten zu verwenden, mit denen Textdaten aus Dokumenten analysiert und manipuliert werden können.
Lizenz: MIT
Die anfängliche Veröffentlichung von Delphic basiert ausschließlich auf OpenAIs API. Wir planen voll und ganz, um andere Großsprachenmodelle (LLMs) zu unterstützen, ob selbst gehostet oder mit API von Drittanbietern angetrieben oder angetrieben. Derzeit ist die Open -AI -API im April 2023 jedoch vielleicht am fähigsten und am einfachsten zu entsorgen. Da dieses Framework auf Llamaindex basiert und mit Langchain vollständig kompatibel ist, ist es ziemlich einfach, andere LLMs zu verwenden. Im Moment wird Ihr Text jedoch mit OpenAI verarbeitet, auch wenn Sie dieses Tool selbst veranstalten. Wenn die Nutzungsbedingungen von OpenAI für Sie ein Problem darstellen, überlassen wir Ihnen das zu lösen. Wir sind nicht verantwortlich für Probleme, die aus der Verwendung dieses Tools und der OpenAI -API stammen.
Der schnellste Weg, um das Laufen zu erreichen, besteht darin, dieses Repo zu klonen und dann die Anwendung lokal bereitzustellen.
Sie müssen Docker und Docker komponieren, um diese Anweisungen zu befolgen. Digitalocean ist nicht nur ein ausgezeichneter Cloud-Host, sondern bietet neben der Einrichtung einige der am einfachsten zu befolgenden Anweisungen. Bitte überprüfen Sie sie hier oder besuchen Sie die offiziellen Anweisungen der Docker.
git clone
cd delphic
mkdir -p ./.envs/.local/
cp -a ./docs/sample_envs/local/.frontend ./frontend
cp -a ./docs/sample_envs/local/.django ./.envs/.local
cp -a ./docs/sample_envs/local/.postgres ./.envs/.local
Aktualisieren Sie als nächstes .postgres .django
Erstellen Sie dann die Docker -Bilder:
sudo docker-compose --profile fullstack -f local.yml build
sudo docker-compose --profile fullstack -f local.yml up
Gehen Sie zu localhost:3000 , um das Frontend zu sehen.
Wenn Sie das Frontend aktiv entwickeln möchten, empfehlen wir Ihnen, das Full -Stack -Flag --profile=fullstack -Flag nicht zu verwenden, da für jede Änderung einen Wiederaufbau eines vollständigen Containers erforderlich ist. Sehen Sie stattdessen die Entwicklungsumgebung anstelle von Schritt 5 oben.
Dies setzt voraus, dass Sie die Anwendung im Internet in einer voll qualifizierten Domäne wie delphic.opensource.legal zur Verfügung stellen möchten. Dazu müssen Sie einige Konfigurationen aktualisieren.
TODO - Dokumentation einfügen
Um die Anwendung tatsächlich zu verwenden (im Moment beabsichtigen wir, bestimmte Modelle mit nicht authentifizierten Benutzern zu teilen), benötigen Sie eine Anmeldung. Sie können entweder einen Superuser oder einen Nicht-Superuser verwenden. In beiden Fällen muss jemand zuerst einen Superuser mit der Konsole erstellen:
Warum einen Django -Superuser einrichten? Ein Django Superuser verfügt über alle Berechtigungen in der Anwendung und kann alle Aspekte des Systems verwalten, einschließlich Erstellen, Ändern und Löschen von Benutzern, Sammlungen und anderen Daten. Durch das Einrichten eines Superusers können Sie die Anwendung vollständig steuern und verwalten.
** Im Moment hat jeder Benutzer, der angemeldet ist, die vollen Berechtigungen. Wir planen, das präzisere, rollenbasierte Zugriffskontrollmodul für OpenContracts zu implementieren. Erstellen von Sammlungen verwendet OpenAI -Credits / kostet Geld
sudo docker-compose -f local.yml run django python manage.py createsuperuser
Starten Sie Ihre delphische Anwendung lokal nach den Bereitstellungsanweisungen.
WARNUNG - Wenn Sie OpenAI als LLM -Engine verwenden, verwendet jede Sammelinteraktion API -Gutschriften / kosten Geld. Wenn Sie Ihren eigenen OpenAI-API-Schlüssel verwenden, haben Sie auch ihre Nutzungsbedingungen akzeptiert, die möglicherweise nicht für Ihren Anwendungsfall geeignet sind. Bitte machen Sie Ihre eigene Fleiß.
Um auf die Frage-Answer-Schnittstelle zuzugreifen, rufen Sie den FullStack auf und gehen Sie zu http://localhost:3000
Wenn Sie zu Delphic beitragen oder Ihre eigene Version rollen möchten, möchten Sie sicherstellen, dass Sie die Entwicklungsumgebung einrichten.
Im Backend benötigen Sie eine funktionierende Python-Umgebung, um die Schecks vor dem Unteroffizieren durchzuführen. Sie können Ihren System -Python -Dolmetscher verwenden. Wir empfehlen jedoch, PyEnv zu verwenden und eine virtuelle Umgebung zu erstellen, die auf Python> = 3.10 basiert.
Führen Sie dann in der Wurzel Ihres örtlichen Repos diese Befehle aus:
pip install -r ./requirements/local.txt
pre-commit install
Wenn Sie jetzt Ihre Commits inszenieren, werden OU AR -Code -Formatierung und Stilprüfungen automatisch ausgeführt.
Wir haben eine grundlegende Testsuite in ./tests . Sie können die Tests durch Eingeben ausführen:
sudo docker-compose -f local.yml run django python manage.py test
Am Frontend verwenden wir den Knoten V18.15.0. Wir gehen davon aus, dass Sie NVM verwenden. Wir haben noch keine Frontend -Tests (sorry).
CD in das Frontend -Verzeichnis, installieren Sie Ihre Frontend -Abhängigkeiten und starten Sie einen Entwicklungsserver ( Hinweis: Wir gehen davon aus, dass Sie NVM installiert haben. Wenn Sie ihn jetzt nicht installieren ):
cd frontend
nvm use
npm install yarn
yarn install
Wenn Sie yarn start eingeben, werden Sie Ihren Frontend Development Server unter http://localhost:3000 anspricht. Sie müssen das Backend noch starten, damit er ordnungsgemäß funktioniert.
fullstack -Profilflagge ausführenStarten Sie das Backend ohne FullStack Flag:
sudo docker-compose -f local.yml up