Entwickelte Rag-Chatbot mit Lamaindex
Backend ??:
Erste Schritte ----------------------------------------------------------------- Erstellen Sie zuerst die Umgebung:
poetry install
poetry shell
Standardmäßig verwenden wir das Openai LLM (obwohl Sie anpassen können, siehe App/Context.py). Infolgedessen müssen Sie in einer .env -Datei in diesem Verzeichnis einen OpenAI_API_KEY angeben.
Beispiel .Env -Datei:
OPENAI_API_KEY=<openai_api_key>
Zweitens generieren Sie die Einbettungen der Dokumente im Verzeichnis ./Data (falls dieser Ordner vorhanden ist - ansonsten überspringen Sie diesen Schritt):
python app/engine/generate.py
"Zur Genrate-Einbettung und weitere weitere Informationen zum Vektorsuche Index --------- siehe https://github.com/run-lama/mongodb-demo/tree/main?tab=readme-ove-file#create-a-Vector-search-index
Drittens führen Sie den Entwicklungsserver aus:
python main.py
Rufen Sie dann den API -Endpunkt /die API /den Chat an, um das Ergebnis anzuzeigen:
curl --location 'localhost:8000/api/chat'
--header 'Content-Type: application/json'
--data '{ "messages": [{ "role": "user", "content": "Hello" }] }'
You can start editing the API by modifying app/api/routers/chat.py. The endpoint auto-updates as you save the file.
Öffnen Sie http: // localhost: 8000/docs mit Ihrem Browser, um die SWAGGE UI der API zu sehen.
Die API ermöglicht CORs für alle Ursprünge, die Entwicklung zu vereinfachen. Sie können dieses Verhalten ändern, indem Sie die Umgebungsumgebungsvariable für Produkte festlegen:
ENVIRONMENT=prod uvicorn main:app
Erfahren Sie mehr, um mehr über Llamaindex zu erfahren. Schauen Sie sich die folgenden Ressourcen an:
Lamaindex -Dokumentation - Erfahren Sie mehr über llamaindex. Sie können sich das Lamaindex Github -Repository ansehen - Ihr Feedback und Ihre Beiträge sind willkommen!
Frontend ??:
Erste Schritte ---------------------------- Installation der Abhängigkeiten:
npm install
Zweitens führen Sie den Entwicklungsserver aus:
npm run dev
Open http://localhost:3000 with your browser to see the result.
Sie können mit der Bearbeitung der Seite beginnen, indem Sie App/Page.tsx ändern. Die Seite Auto-Updates, während Sie die Datei bearbeiten.
In diesem Projekt optimieren und laden Sie die NEXT/Schriftart automatisch, eine benutzerdefinierte Google -Schriftart.
Erfahren Sie mehr, um mehr über Llamaindex zu erfahren. Schauen Sie sich die folgenden Ressourcen an:
Lamaindex -Dokumentation - Erfahren Sie mehr über Llamaindex (Python -Funktionen). LamainDexts Dokumentation - LamaNDex (TypeScript -Funktionen) erfahren. Sie können sich das Lamaindexte -Github -Repository ansehen - Ihr Feedback und Ihre Beiträge sind willkommen!