Enlace del artículo
Este proyecto de Python demuestra una búsqueda semántica utilizando MongoDB y dos marcos LLM diferentes: Langchain y Llamaindex . El objetivo es cargar documentos de MongoDB, generar incrustaciones para los datos de texto y realizar búsquedas semánticas utilizando los marcos Langchain y Llamaindex .
Para ejecutar este proyecto, debe establecer las siguientes variables de entorno en un archivo .env :
OPENAI_API_KEY = YOUR_OPENAI_API_KEY
MONGODB_URI = YOUR_MONGODB_CONNECTION_URI
MONGODB_COLL = YOUR_MONGODB_COLLECTION
MONGODB_VECTOR_INDEX = YOUR_MONGODB_VECTOR_INDEX
MONGODB_VECTOR_COLL_LANGCHAIN = YOUR_MONGODB_VECTOR_COLLECTION_LANGCHAIN
MONGODB_VECTOR_COLL_LLAMAINDEX = YOUR_MONGODB_VECTOR_COLLECTION_LLAMAINDEXAsegúrese de reemplazar los valores del marcador de posición con sus claves API reales y detalles de conexión.
Instalar dependencias:
pip install -r requirements.txt
El proyecto carga documentos de la colección MongoDB especificada ( MONGODB_COLL ). Asegúrese de que su colección MongoDB contenga los datos de texto en los que desea realizar una búsqueda semántica.
La aplicación genera incrustaciones para los datos de texto cargados utilizando los marcos Langchain y Llamaindex. Los incrustaciones se almacenan en colecciones separadas de MongoDB ( MONGODB_VECTOR_COLL_LANGCHAIN y MONGODB_VECTOR_COLL_LLAMAINDEX ).
La búsqueda semántica se realiza utilizando marcos Langchain y Llamaindex. El proceso implica consultar la recolección de incrustaciones y recuperar documentos relevantes basados en la similitud semántica del aviso.
Se requiere el OPENAI_API_KEY para incrustar la generación utilizando modelos de lenguaje externos (por ejemplo, GPT de OpenAI). Asegúrese de configurar los detalles y colecciones de conexión de MongoDB de manera adecuada. Consulte la documentación oficial de Langchain y Llamaindex para obtener cualquier detalle de configuración o uso adicional.