Seerat e Nabi Model with Llama Index
1.0.0
该项目是一个Web应用程序,它使用FastAPI后端使用Llama索引进行矢量存储和查询来对Seerat-E-Nabi模型的问题提供回答。
main.py :使用FastApi的Main应用程序文件设置端点。llama_model.py :脚本加载数据,创建索引并使用Llama索引查询。clean.py :预处理原始数据用于创建适合索引的干净数据集。 main.py )GET / :简单的健康检查返回“确定”。GET /response/{question} :接受一个问题并返回模型的响应。port 8000上运行服务器。llama_model.py )clean.py )git clone https://github.com/faisal-fida/seerat-e-nabi-model-llama-index.git
cd seerat-e-nabi-model-llama-index
pip install -r requirements.txt
uvicorn main:app --reload该项目演示了FastAPI与Llama索引的集成,用于创建能够根据索引数据回答问题的响应式Web应用程序。它突出了模型集成,数据预处理和有效查询的复杂性。
如果您遇到任何问题,请随时贡献或提出问题!