Consejo de contrato RAG: Construyendo una aplicación LLM LLM de expertos legales de alta precisión
Introducción
Este proyecto se centra en construir una herramienta de análisis de contratos de alta precisión utilizando la generación de recuperación aumentada (RAG). Este enfoque aprovecha el poder de los modelos de idiomas grandes (LLM) para recuperar información relevante de fuentes de conocimiento externas, en este caso, contratos legales. El objetivo es crear un sistema que pueda responder de manera precisa y eficiente las preguntas sobre el contenido del contrato, actuando como un asistente legal virtual.
Tabla de contenido
- Características clave
- Estructura de proyectos
- Empezando
- Instalación
- Uso
- Pruebas
- Que contribuye
- Licencia
- Contacto
Características clave
- Marco de RAG : aprovecha el marco de Langchain para integrar a la perfección LLM con los datos del contrato.
- Modelos OpenAI GPT : utiliza modelos GPT de OpenAI para la comprensión y generación del lenguaje natural.
- Integración de autógeno : integración con Microsoft Autogen para crear agentes de IA conversacionales para una experiencia de usuario más interactiva.
- Interfaz web : proporciona una interfaz web fácil de usar para que los usuarios interactúen con el sistema y hagan preguntas sobre el contenido del contrato.
- Fastapi Backend : utiliza FastAPI para crear un servidor de backend de alto rendimiento para manejar las solicitudes de los usuarios con el uso de WebSockets y permitir la interacción con la tubería RAG.
- Base de datos vectorial : emplea una base de datos vectorial (por ejemplo, Chroma) para almacenar y recuperar la información del contrato de manera eficiente.
- Recuperación múltiple : genera múltiples variaciones de consulta para mejorar las posibilidades de encontrar información relevante.
- Re-raning : emplea mecanismos de reanimiento para priorizar la información más contextualmente relevante.
- Evaluación utilizando ragas : incluye una sólida canal de evaluación utilizando métricas como precisión, relevancia y tiempo de respuesta para evaluar y mejorar el rendimiento.
Estructura de proyectos
project_root/
├── .github/ # GitHub Actions workflows
├── frontend/ # React frontend code
├── backend/ # FastAPI backend code
├── src/ # Source code for RAG pipeline, utils, etc.
├── tests/ # Unit and integration tests
├── README.md # This file
└── requirements.txt # Project dependencies
Empezando
Requisitos previos
- Python 3.9+
- pepita
- Node.js v18+
- NPM: para instalar dependencias frontend
1. Clon este repositorio
git clone [email protected]:hillaryke/contract-qa-high-precision-rag.git
cd contract-qa-high-precision-rag
2. Configure el entorno
Agregue su OpenAI_api_Key a un archivo .env en el directorio raíz del proyecto.
Instalación
1. Instalar dependencias
pip install -r requirements.txt
Uso
1. Inicie el servidor Fastapi
Ejecute el comando para iniciar el servidor FastAPI:
El servidor comenzará en http: // localhost: 8000/
2. Comience el frontend react
En su navegador accede a la aplicación frontend desde http: // localhost: 3000/
Pruebas
1. Ejecutar pruebas
Para ejecutar las pruebas, use el siguiente comando:
Licencia
Este proyecto tiene licencia bajo la licencia MIT; consulte el archivo de licencia para obtener más detalles.
Contacto
Para cualquier pregunta o apoyo, contácteme a través del correo electrónico Hillary K ..
¡Disfrutar!