Rag-5: um chatbot de AI alimentado pelo LLMS para citação de PDFs, relatórios e diretrizes personalizados
Agora suporta llama-3.1 por meta ai

O RAG-5 é um repositório de ponta que aproveita o poder da geração de recuperação (RAG) para fornecer respostas e referências instantâneas de um diretório com curadoria de PDFs que contêm informações sobre qualquer tópico como os documentos da OMS para quem recomenda. Este sistema foi projetado para ajudar pesquisadores, formuladores de políticas e o público a encontrar rapidamente informações específicas em extensos documentos.
Características
- Interface de conversação : envolva -se com o sistema usando consultas de linguagem natural para receber respostas diretamente de origem dos PDFs.
- Citação direta : todas as respostas do sistema incluem um link direto para a página PDF de origem, garantindo rastreabilidade e verificação.
- Diretório em PDF : um conjunto predefinido de documentos -chave em PDF, atualmente incluindo recomendações de OMS sobre grandes tópicos de saúde, como esquistossomíase e malária.
Modelos disponíveis
- ? LLAMA-3.1-8B-INSTANT : Experimente respostas instantâneas e eficientes com este modelo otimizado para interações rápidas.
- ? LLAMA-3.1-70B-Versatile : Utilize esse modelo versátil para uma ampla gama de tarefas de linguagem complexas com alta precisão.
- GPT-3.5-Turbo : Envolva-se com interações avançadas e humanas, adequadas para tarefas de conversação variadas.
- ? LLAMA3-70B-8192 : Desfrute de um desempenho de ponta com este modelo em larga escala, ideal para insights de aprendizado profundo.
- ? LLAMA3-8B-8192 : Aproveite os recursos robustos com esta versão mais acessível do llama3, perfeita para uma ampla gama de aplicativos de IA.
- ? Mixtral-8X7B-32768 : Aproveite a potência da modelagem de conjuntos com a extensa capacidade da Mixtral para compreensão e geração de respostas diferenciadas.
- ? GEMMA-7B-IT : Explore interações especializadas e soluções focadas em tecnologia com Gemma, adaptadas para TI e conteúdo técnico.
Demonstração

Como funciona
O aplicativo utiliza uma combinação de incorporações do OpenAI, pesquisa vetorial pinecone e uma interface de conversação para fornecer uma experiência de recuperação perfeita. Quando uma consulta é feita, o sistema:
- Converte a consulta em incorporações.
- Procura as seções de documentos mais relevantes usando a pesquisa vetorial da Pinecone.
- Retorna a resposta junto com citações e links para os documentos de origem.
Configurar
Clone o repositório:
git clone https://github.com/yourusername/RAG-nificent.git
Instale dependências:
pip install -r requirements.txt
Defina variáveis de ambiente em um .env (também consulte o arquivo .env.example :
-
PINECONE_INDEX_NAME -
PINECONE_NAME_SPACE -
OPENAI_API_KEY -
PINECONE_API_KEY -
GROQ_API_KEY
Crie um índice Pinecone com o mesmo nome que PINECONE_INDEX_NAME . Configure -o com dimensions=1536 e metric=cosine .
Coloque seus PDFs no diretório pdf_data e execute data_ingestion.py
Execute o aplicativo:
Documentos de origem
Atualmente, o sistema inclui diretrizes dos seguintes PDFs com links diretos para os documentos:
- Diretriz de OMS sobre controle e eliminação da esquistossomíase humana (2022)
- Diretrizes da OMS para malária (2023)