Langchain_readlocal
Utilise Langchain pour lire les fichiers locaux dans la base de données vectorielle et commencer les questions et réponses avec LLM en utilisant les documents vectorisés
Comment utiliser
- L'utilisateur est tenu d'installer des packages Python à partir du fichier required.txt, la version Python utilisée est: Python 3.11.4
- L'utilisateur est tenu de changer le fichier gpt4all.py à partir du dossier GPT4ALL installé à l'emplacement du module avec celui fourni, la différence est que celle fournie ici garantit que LLM agit localement et avec le modèle du choix de l'utilisateur plutôt que le modèle par défaut qui sera installé à partir du site Web de GPT4ALL. Cela permet au LLM de s'exécuter purement localement et sans avoir besoin d'une connexion Internet. Remarque L'utilisateur est requis 2 entrées dans le fichier gpt4all.py (l'emplacement du fichier du LLM utilisé et le nom du fichier lui-même)
- Cela signifie que l'utilisateur devra télécharger un LLM de son choix "xx.bin" (peut trouver beaucoup en ligne avec facilité) et insérer l'emplacement du fichier et son nom dans le fichier gpt4all.py ainsi que main.py
- L'utilisateur a également besoin d'une clé API OpenAI pour utiliser
Feuille de route