Um aplicativo que utiliza o Streamlit para oferecer uma interface amigável para criar um pipeline RAG. O aplicativo permite que o usuário faça o upload de suas próprias FIES em PDF, que são processadas e armazenadas em um novo banco de dados vetorial (ou existente).
O usuário pode consultar o banco de dados e receber a resposta mais relevante gerada a partir de um modelo LLM. O LLM que escolhemos usar é o modelo Gemma: 2B e, para a porção de modelos, usamos Ollama.
O aplicativo também oferece a capacidade de excluir um banco de dados existente, embora atualmente essa funcionalidade seja limitada para o Windows.
Para executar o aplicativo, primeiro você precisa clonar este repositório. Isso pode ser feito com o comando:
git clone https://github.com/Jimlibo/custom-rag-app.gitDepois de clonar o repositório, você pode navegar para o diretório do aplicativo:
cd custom-rag-appSe você possui o Docker e o Docker-Compose instalado, poderá executar o aplicativo com os seguintes comandos:
docker-compose upSe você não possui o Docker instalado, primeiro pode instalar os pacotes necessários do requisitos.txt e executar o aplicativo através do streamlit. Isso pode ser feito com os seguintes comandos:
cd src
pip install -r requirements.txt
streamlit run app.pyPara executar a inferência em um LLM, você também precisa ter o serviço Ollama em funcionamento. Se for a primeira vez que você executa o aplicativo, você deve puxar o modelo Gemma: 2B do Repositório Ollama antes de servir. Para puxar o modelo, abra outro terminal e execute o comando:
ollama pull gemma:2bPara servir o modelo, execute:
ollama serveDistribuído sob a licença do MIT. Consulte a licença para obter mais informações.