Langchain_readlocal
Verwendet Langchain, um lokale Dateien in die Vector -Datenbank zu lesen und die Q & A mit LLM mithilfe der vektorisierten Dokumente zu starten
Wie man benutzt
- Der Benutzer muss Python -Pakete aus der Datei "Anforderungen.txt" installieren. Die verwendete Python -Version ist: Python 3.11.4
- Der Benutzer muss die Datei GPT4ALL.PY aus dem am Standort des Moduls installierten GPT4ALL -Ordners mit dem vorgesehenen Ort ausschalten. Der hier bereitgestellte hier ist, dass das LLM lokal und mit dem Modell der Wahl des Benutzers und nicht das Standardmodell von GPT4all -Website installiert wird. Dies ermöglicht es dem LLM, nur lokal und ohne Internetverbindung auszuführen. Beachten Sie, dass der Benutzer 2 Eingänge in die Datei gpt4all.py (der Dateispeicherort des verwendeten LLM und den Namen der Datei selbst) benötigt wird.
- Dies bedeutet
- Der Benutzer benötigt auch einen OpenAI -API -Schlüssel für die Verwendung
Roadmap