langchain_readlocal
Utiliza Langchain para leer archivos locales en la base de datos Vector y comenzar preguntas y respuestas con LLM utilizando los documentos vectorizados
Cómo usar
- Se requiere que el usuario instale paquetes de Python desde el archivo requisitos.txt, la versión de Python utilizada es: Python 3.11.4
- Se requiere que el usuario cambie el archivo gpt4all.py de la carpeta GPT4All instalada en la ubicación del módulo con la proporcionada, la diferencia es que el proporcionado aquí garantiza que el LLM actos localmente y con el modelo de la elección del usuario en lugar del modelo predeterminado que se instalará desde el sitio web de GPT4All. Esto permite que el LLM se ejecute solo localmente y sin la necesidad de conexión a Internet. Nota El usuario se requiere 2 entradas en el archivo gpt4all.py (la ubicación del archivo de la LLM utilizada y el nombre del archivo en sí)
- Esto significa que el usuario deberá descargar una LLM de su elección "xx.bin" (puede encontrar muchos en línea con facilidad) e insertar la ubicación del archivo y su nombre en el archivo gpt4all.py, así como main.py
- El usuario también necesita una tecla API de OpenAI para el uso
Hoja de ruta