Seerat e Nabi Model with Llama Index
1.0.0
Этот проект представляет собой веб-приложение, которое использует бэкэнд FASTAPI для предоставления ответов на вопросы о модели SEERAT-E-NABI с использованием индекса Llama для векторного хранения и запросов.
main.py : основной файл приложения с использованием fastapi для настройки конечных точек.llama_model.py : скрипт для загрузки данных, создать индекс и запросить его с помощью индекса Llama.clean.py : предварительные обработки необработанные данные для создания чистого набора данных, подходящего для индексации. main.py )GET / : Простая проверка здоровья возвращается "OK".GET /response/{question} : принимает вопрос и возвращает ответ модели.port 8000 с включенной перезагрузкой.llama_model.py )clean.py )git clone https://github.com/faisal-fida/seerat-e-nabi-model-llama-index.git
cd seerat-e-nabi-model-llama-index
pip install -r requirements.txt
uvicorn main:app --reloadЭтот проект демонстрирует интеграцию FASTAPI с индексом LLAMA для создания адаптивного веб -приложения, способного отвечать на вопросы на основе индексированных данных. Он подчеркивает сложности интеграции модели, предварительной обработки данных и эффективных запросов.
Не стесняйтесь вносить свой вклад или поднимать проблемы, если вы столкнетесь с какими -либо проблемами!