Seerat e Nabi Model with Llama Index
1.0.0
Este projeto é um aplicativo da Web que usa um back-end FASTAPI para fornecer respostas a perguntas sobre o modelo Seerat-e-Nabi usando o índice de llama para armazenamento e consulta vetorial.
main.py : arquivo de aplicativo principal usando o FASTAPI para configurar pontos de extremidade.llama_model.py : script para carregar dados, criar um índice e consultar ele usando o índice de llama.clean.py : pré -processos dados brutos para criar um conjunto de dados limpo adequado para indexação. main.py )GET / : Verificação simples de saúde retornando "OK".GET /response/{question} : aceita uma pergunta e retorna a resposta do modelo.port 8000 com recarregamento ativado.llama_model.py )clean.py )git clone https://github.com/faisal-fida/seerat-e-nabi-model-llama-index.git
cd seerat-e-nabi-model-llama-index
pip install -r requirements.txt
uvicorn main:app --reloadEste projeto demonstra a integração do FASTAPI com o índice de llama para criar um aplicativo da Web responsivo capaz de responder perguntas com base em dados indexados. Ele destaca as complexidades da integração do modelo, pré -processamento de dados e consulta eficiente.
Sinta -se à vontade para contribuir ou levantar problemas se encontrar algum problema!