Basic-Qdrant-Upload-und-Suche-Beispiel
Beispielcode zum Hochladen und Durchsuchen einer QDrant -Vektor -Datenbank
Wenn Sie diesen Code nützlich finden, sollten Sie mein Haupt -A -Assistentenprojekt für AI -Assistenten überprüfen: https://github.com/libraryofcelsus/aetherius_ai_assistant
Wenn Sie weitere Code -Tutorials wie diese wünschen, folgen Sie mir auf Github und YouTube: https://www.youtube.com/@libraryofcelsus
(Channel wird noch nicht gestartet, ich habe mehrere Skripte wie diese geschrieben, arbeite aber immer noch an einem Videoproduktionsformat. Abonnieren Sie den Start!)
Tutorials für eingebautes Code in einem Dokumentationsformat unter: https://www.libraryofcelsus.com/research/public/code-tutorials/
Installation des Fensters
- Wenn Sie QDRant Cloud verwenden, kopieren Sie ihre API -Taste und URL in die entsprechenden .txt -Dateien.
Qdrant Cloud Link: https://qdrant.to/cloud
Um einen lokalen QDrant -Server zu verwenden, installieren Sie zuerst Docker: https://www.docker.com/ und siehe: https://github.com/qdrant/qdrant/blob/master/quick_start.md
Sobald der lokale QDrant -Server ausgeführt wird, sollte er vom Skript automatisch erkannt werden. - Git installieren
- Installieren Sie Python 3.10.6 und stellen Sie sicher, dass Sie es dem Pfad hinzufügen
- Open Git Bash -Programm
- Git-Klon ausführen: Git-Klon https://github.com/libraryofcelsus/basic-qdrant-upload-and-search-example
- Öffnen Sie die Befehlszeile als Administrator und navigieren Sie mit CD zum Ordner für Projektinstallation
- Erstellen Sie eine virtuelle Umgebung: Python -m Venv Venv
- Aktivieren Sie die virtuelle Umgebung mit:. Venv scripts aktivieren
- Installieren Sie die Anforderungen mit PIP Install -r -Anforderungen.txt
- Bearbeiten und legen Sie Ihren Benutzernamen- und Chatbot -Namen in den .txt -Dateien ein
- Bearbeiten und setzen Sie Ihre Hauptaufforderung und den Gruß in den .txt -Dateien ein
- Für Oobabooga: Installieren Sie die Oobabooga Web-UI. Dies kann mit einem Ein-Klick-Installationsprogramm erfolgen, der auf ihrer Github-Seite gefunden wurde: https://github.com/oobabooga/text-generation-webui. Starten Sie dann die Web-UI und navigieren Sie zur Registerkarte "Sitzungen", klicken Sie auf beide API-Boxen und klicken Sie dann auf das Anwenden und starten Sie sie neu. Navigieren Sie navigieren Sie zur Registerkarte "Modelle" und geben Sie ein: "TheBloke/LLAMA-2-7B-CHAT-GPTQ" oder "TheBloke/LLAMA-2-13B-CHAT-GPTQ". (Wenn Sie CPU verwenden, verwenden Sie die GMML-Version.) Wenn das Modell heruntergeladen wurde, ändern Sie den Modelllader in Exllama und setzen Sie den Parameter gpu-split auf 0,5 GB unter Ihrem GPU-Limit. Setzen Sie als nächstes den max_seq_len auf 4096.
- Für OpenAI: Fügen Sie Ihren OpenAI -API -Schlüssel zu Key_openai.txt hinzu
- Führen Sie den Chatbot mit Python script_name.py aus
*Beachten Sie, Sie müssen ausführen. Venv Skripte aktivieren Sie jedes Mal, wenn Sie die Befehlszeile beenden, um die virtuelle Umgebung zu reaktivieren.
Meine KI-Forschung ist selbst finanziert. Erwägen Sie mich zu unterstützen, wenn Sie es nützlich finden :)
Kontakt
Discord: Libraryofcelsus -> Altem Benutzername Stil: Celsus#0262
Mega -Chat: https://mega.nz/c!pmnmeizq
E -Mail: [email protected]