Arquitectura mejorada
Uso de Langchain como el marco mejoró la arquitectura de trapo de mi proyecto anterior, como
- En lugar de ejecutar la localy modelo. Prefiero usar API de juntos. (También proporcionan un mejor modelo para que el resultado del aviso sea mejor). También podría ajustar el parámetro del LLM para un mejor resultado o tal vez la selección del modelo para mi caso de uso específico.
- Arreglando el problema de fragmentación usando LLM (Chunker semántico) como fragmento de fragmentación manual.
- Reescribe la consulta usando LLM antes de convertirlo en Vector para fines de recuperación para una mejor recuperación.
- Utilizando la búsqueda semántica (contexto) y la búsqueda léxica (palabra clave) para el vector db, que es FAISS (búsqueda de similitud de IA de Facebook).
- Algoritmo Reranking+Autocut después de la recuperación para una mejor producción.
Ragas también podría implementarse en este proyecto, una evaluación comparativa de arquitectura de trapo allí hay otro método de trapo que realmente me interesa como Graphrag.
PD
- Mi Cordero Semántico Run Verrry Slow, le aconsejo a que use un divisor de texto normal con tamaño fijo y superposición para un rendimiento más rápido
- Si no desea alojar el DB en Local, puede usar servicios como Pinecone o MongoDB Atlas y crear un clúster
- Le aconsejo que use otro modelo para la inferencia y el reescritor, encuentre el mejor para su USECase
Skibidi sigma rizz +1000 aura