Langchain_readlocal
Usa Langchain para ler arquivos locais no banco de dados vetorial e iniciar perguntas e respostas com LLM usando os documentos vetorizados
Como usar
- O usuário é obrigado a instalar pacotes python no arquivo requisitos.txt, a versão python usada é: python 3.11.4
- O usuário é obrigado a alternar o arquivo gpt4all.py da pasta GPT4all instalada na localização do módulo com a fornecida, a diferença é que a fornecida aqui garante que o LLM atue localmente e com o modelo de escolha do usuário, e não o modelo padrão que será instalado no site da GPT4all. Isso permite que o LLM funcione puramente localmente e sem a necessidade de conexão com a Internet. Observe que o usuário é necessário 2 entradas no arquivo gpt4all.py (o local do arquivo do LLM usado e o nome do próprio arquivo)
- Isso significa que o usuário precisará baixar um LLM de sua escolha "xx.bin" (pode encontrar muitos online com facilidade) e inserir o local do arquivo e seu nome no arquivo gpt4all.py, bem como main.py
- O usuário também precisa de uma chave de API OpenAI para uso
Roteiro