Rag-Nificent: un chatbot de IA impulsado por LLMS para la cita de PDF, informes y pautas personalizados
Ahora admite Llama-3.1 por Meta AI

Rag-Nificent es un repositorio de vanguardia que aprovecha el poder de la generación de recuperación y una generación (RAG) para proporcionar respuestas instantáneas y referencias de un directorio curado de PDF que contiene información sobre cualquier tema dado, como documentos de recomendaciones de la OMS. Este sistema está diseñado para ayudar a los investigadores, los responsables políticos y el público a encontrar rápidamente información específica dentro de documentos extensos.
Características
- Interfaz de conversación : comprometerse con el sistema utilizando consultas de lenguaje natural para recibir respuestas directamente obtenidas de los PDF.
- Cita directa : cada respuesta del sistema incluye un enlace directo a la página PDF de origen, asegurando la trazabilidad y la verificación.
- Directorio PDF : un conjunto predefinido de documentos PDF clave, que actualmente incluye recomendaciones de la OMS sobre los principales temas de salud como la esquistosomiasis y la malaria.
Modelos disponibles
- ? Llama-3.1-8b-Instant : Experience respuestas instantáneas y eficientes con este modelo optimizado para interacciones rápidas.
- ? Llama-3.1-70b-versátil : Utilice este modelo versátil para una amplia gama de tareas de lenguaje complejo con alta precisión.
- GPT-3.5-TURBO : Comprenda con interacciones avanzadas, similares a los humanos, adecuadas para tareas de conversación variadas.
- ? LLAMA3-70B-8192 : Disfrute de un rendimiento de alta gama con este modelo a gran escala, ideal para ideas de aprendizaje profundo.
- ? LLAMA3-8B-8192 : Capacidades robustas de arnés con esta versión más accesible de LLAMA3, perfecta para una amplia gama de aplicaciones de IA.
- ? MixTral-8X7B-32768 : Aproveche la potencia del modelado de conjunto con la extensa capacidad de Mixtral para la comprensión y la generación de respuesta matizada.
- ? GEMMA-7B-IT : Explore interacciones especializadas y soluciones centradas en la tecnología con Gemma, adaptadas para TI y contenido técnico.
Manifestación

Cómo funciona
La aplicación utiliza una combinación de incrustaciones de OpenAI, búsqueda de vectores de Pinecone y una interfaz de conversación para proporcionar una experiencia de recuperación perfecta. Cuando se hace una consulta, el sistema:
- Convierte la consulta en incrustaciones.
- Búsqueda de las secciones de documentos más relevantes utilizando la búsqueda vectorial de Pinecone.
- Devuelve la respuesta junto con citas y enlaces a los documentos de origen.
Configuración
Clon el repositorio:
git clone https://github.com/yourusername/RAG-nificent.git
Instalar dependencias:
pip install -r requirements.txt
Establezca variables de entorno en un .env (ver también el archivo .env.example :
-
PINECONE_INDEX_NAME -
PINECONE_NAME_SPACE -
OPENAI_API_KEY -
PINECONE_API_KEY -
GROQ_API_KEY
Cree un índice de Pinecone con el mismo nombre que PINECONE_INDEX_NAME . Establecer con dimensions=1536 y metric=cosine .
Coloque sus PDF en el directorio pdf_data y ejecute data_ingestion.py
Ejecute la aplicación:
Documentos fuente
El sistema actualmente incluye directrices de los siguientes PDF con enlaces directos a los documentos:
- Directriz de la OMS sobre el control y la eliminación de la esquistosomiasis humana (2022)
- Directrices de la OMS para la malaria (2023)