Seerat e Nabi Model with Llama Index
1.0.0
이 프로젝트는 FastApi 백엔드를 사용하여 벡터 저장 및 쿼리 용 LLAMA 인덱스를 사용하여 SEERAT-e-NABI 모델에 대한 질문에 대한 답변을 제공하는 웹 응용 프로그램입니다.
main.py : FastApi를 사용하여 엔드 포인트를 설정하는 주 응용 프로그램 파일.llama_model.py : 데이터를로드하고 인덱스를 생성하고 llama index를 사용하여 쿼리하는 스크립트.clean.py : 인덱싱에 적합한 깨끗한 데이터 세트를 생성하기위한 원시 데이터 전처리. main.py )GET / : 간단한 건강 점검 "OK"를 반환합니다.GET /response/{question} : 질문을 수락하고 모델의 응답을 반환합니다.port 8000 에서 서버를 실행합니다.llama_model.py )clean.py )git clone https://github.com/faisal-fida/seerat-e-nabi-model-llama-index.git
cd seerat-e-nabi-model-llama-index
pip install -r requirements.txt
uvicorn main:app --reload이 프로젝트는 인덱스 데이터를 기반으로 질문에 답할 수있는 반응 형 웹 애플리케이션을 만들기 위해 Fastapi와 LLAMA 인덱스의 통합을 보여줍니다. 모델 통합, 데이터 전처리 및 효율적인 쿼리의 복잡성을 강조합니다.
문제가 발생하면 자유롭게 기여하거나 문제를 제기하십시오!