AI assistant ollama
1.0.0
โครงการนี้แสดงให้เห็นถึงวิธีการใช้ส่วนประกอบต่าง ๆ จากไลบรารี langchain_community และ langchain_core ในการโหลดแปลงฝังและดึงเอกสารจากฐานข้อมูล PostgreSQL ที่เปิดใช้งาน PGVector เอกสารนั้นมาจาก URL เปลี่ยนเป็นข้อความแบ่งออกเป็นชิ้นที่จัดการได้และเก็บไว้เป็นเวกเตอร์ในฐานข้อมูลสำหรับการดึงข้อมูล โครงการยังแสดงวิธีการสร้างเชน RAG (Retrieval-Augmented Generation) โดยใช้โมเดลภาษา Ollama เพื่อตอบคำถามตามบริบทที่ดึงมาจากร้านค้าเวกเตอร์
git clone https://github.com/Atomic-man007/AI-assistant-ollama.gitpython -m venv venv
source venv/bin/activate # On Windows, use `venvScriptsactivate`pip install -r requirements.txtdocker run --name pgvector -e POSTGRES_PASSWORD=mysecretpassword -d -p 5432:5432 ankane/pgvectorDB_URL เพื่อชี้ไปที่อินสแตนซ์ PostgreSQL ของคุณ: export DB_URL=postgresql://postgres:mysecretpassword@localhost:5432/postgres อัปเดตรายการ urls ในฟังก์ชั่น main ด้วย URL ของเอกสารที่คุณต้องการดำเนินการ
เรียกใช้สคริปต์:
python main.pyสคริปต์แสดงขั้นตอนต่อไปนี้:
โครงการนี้ได้รับใบอนุญาตภายใต้ใบอนุญาต MIT ดูไฟล์ใบอนุญาตสำหรับรายละเอียด
langchain_community และ langchain_core Libraries สำหรับการจัดหาส่วนประกอบที่ใช้ในโครงการนี้