Seerat e Nabi Model with Llama Index
1.0.0
โครงการนี้เป็นเว็บแอปพลิเคชันที่ใช้แบ็กเอนด์ Fastapi เพื่อให้คำตอบสำหรับคำถามเกี่ยวกับโมเดล Seerat-e-Nabi โดยใช้ดัชนี LLAMA สำหรับการจัดเก็บเวกเตอร์และการสืบค้น
main.py : ไฟล์แอปพลิเคชันหลักโดยใช้ fastapi เพื่อตั้งค่าจุดสิ้นสุดllama_model.py : สคริปต์เพื่อโหลดข้อมูลสร้างดัชนีและสอบถามโดยใช้ดัชนี Llamaclean.py : ประมวลผลข้อมูลดิบล่วงหน้าสำหรับการสร้างชุดข้อมูลที่สะอาดเหมาะสำหรับการจัดทำดัชนี main.py )GET / : การตรวจสุขภาพอย่างง่ายกลับ "ตกลง"GET /response/{question} : ยอมรับคำถามและส่งคืนการตอบกลับของโมเดลport 8000 พร้อมเปิดใช้งานการโหลดซ้ำllama_model.py )clean.py )git clone https://github.com/faisal-fida/seerat-e-nabi-model-llama-index.git
cd seerat-e-nabi-model-llama-index
pip install -r requirements.txt
uvicorn main:app --reloadโครงการนี้แสดงให้เห็นถึงการรวม Fastapi กับดัชนี Llama สำหรับการสร้างเว็บแอปพลิเคชันที่ตอบสนองได้ซึ่งสามารถตอบคำถามตามข้อมูลที่จัดทำดัชนี มันเน้นความซับซ้อนของการรวมโมเดลการประมวลผลข้อมูลล่วงหน้าและการสืบค้นที่มีประสิทธิภาพ
อย่าลังเลที่จะมีส่วนร่วมหรือยกประเด็นหากคุณพบปัญหาใด ๆ !