개선 된 rag-ararcitecture
프레임 워크가 이전 프로젝트에서 Rag Architecture를 향상 시켰기 때문에 Langchain을 사용합니다.
- 모델 Localy를 실행하는 대신. 오히려 함께 API를 함께 사용하고 싶습니다. (또한 더 나은 모델을 제공하므로 프롬프트의 결과가 더 좋을 것입니다). 또한 특정 사용 사례에 대한 더 나은 결과 또는 모델 선택을 위해 LLM의 매개 변수를 조정할 수도 있습니다.
- LLM (Semantic Chunker)을 수동 청크 대신 청키로 사용하여 청킹 문제를 해결합니다.
- 더 나은 검색을 위해 검색 목적으로 벡터로 전환하기 전에 LLM을 사용하여 쿼리를 다시 작성하십시오.
- FAISS (Facebook AI 유사성 검색) 인 벡터 DB에 대한 시맨틱 검색 (컨텍스트) 및 어휘 검색 (키워드)을 모두 사용합니다.
- 더 나은 출력에 대한 검색 후+autocut 알고리즘을 재고합니다.
이 프로젝트에서는 Ragas가 구현 될 수 있습니다.이 프로젝트는 Rag Architecture 벤치마킹을 벤치 마킹 벤치마킹하는 다른 방법이 있습니다.
추신
- 내 시맨틱 chunker run verrry slow, 고정 된 크기의 일반 텍스트 스플리터를 사용하고 더 빠른 성능을 위해 오버랩을 사용하는 것이 좋습니다.
- 로컬에서 DB를 호스팅하지 않으려면 Pinecone 또는 MongoDB Atlas와 같은 서비스를 사용하고 클러스터를 만들 수 있습니다.
- 추론 및 재 작성자에 다른 모델을 사용하는 것이 좋습니다. USECASE에 가장 적합한 모델을 찾으십시오.
Skibidi Sigma Rizz +1000 Aura