langchain_readlocal
ใช้ langchain เพื่ออ่านไฟล์โลคัลลงในฐานข้อมูลเวกเตอร์และเริ่มถาม & ตอบด้วย LLM โดยใช้เอกสารเวกเตอร์
วิธีใช้
- ผู้ใช้จำเป็นต้องติดตั้งแพ็คเกจ Python จากไฟล์ required.txt รุ่น Python ที่ใช้คือ: Python 3.11.4
- ผู้ใช้จะต้องเปลี่ยนไฟล์ gpt4all.py จากโฟลเดอร์ GPT4ALL ที่ติดตั้งไว้ที่ตำแหน่งของโมดูลพร้อมที่ให้ไว้ความแตกต่างคือไฟล์ที่ให้ไว้ที่นี่ทำให้มั่นใจได้ว่า LLM จะทำงานในพื้นที่และด้วยแบบจำลองของตัวเลือกของผู้ใช้มากกว่ารุ่นเริ่มต้นที่จะติดตั้งจากเว็บไซต์ของ GPT4ALL สิ่งนี้ช่วยให้ LLM ทำงานได้อย่างหมดจดในท้องถิ่นและไม่จำเป็นต้องเชื่อมต่ออินเทอร์เน็ต หมายเหตุจำเป็นต้องใช้ 2 อินพุตลงในไฟล์ gpt4all.py (ตำแหน่งไฟล์ของ LLM ที่ใช้และชื่อของไฟล์เอง)
- ซึ่งหมายความว่าผู้ใช้จะต้องดาวน์โหลด LLM ที่เลือก "xx.bin" (สามารถค้นหาออนไลน์ได้อย่างง่ายดาย) และแทรกตำแหน่งไฟล์และชื่อลงในไฟล์ gpt4all.py รวมถึง main.py
- ผู้ใช้ยังต้องการคีย์ OpenAI API สำหรับการใช้งาน
แผนงาน