langchain_readlocal
يستخدم Langchain لقراءة الملفات المحلية في قاعدة بيانات Vector وابدأ Q&A باستخدام LLM باستخدام المستندات المتجهة
كيفية استخدام
- يُطلب من المستخدم تثبيت حزم Python من ملف المتطلبات. txt ، إصدار Python المستخدم هو: Python 3.11.4
- يُطلب من المستخدم تبديل ملف gpt4all.py من مجلد GPT4All المثبت في موقع الوحدة النمطية مع واحد متوفر ، والفرق هو أن الملف المقدم هنا يضمن تصرف LLM محليًا ونموذج اختيار المستخدم بدلاً من النموذج الافتراضي الذي سيتم تثبيته من موقع GPT4ALL. هذا يسمح لـ LLM بالتشغيل محليًا محليًا ودون الحاجة إلى اتصال بالإنترنت. ملاحظة أن المستخدم مطلوب 2 مدخلات في ملف gpt4all.py (موقع ملف LLM المستخدم واسم الملف نفسه)
- هذا يعني أن المستخدم سيحتاج إلى تنزيل LLM من اختياره "XX.BIN" (يمكن العثور على الكثير عبر الإنترنت بسهولة) وإدراج موقع الملف واسمه في ملف gpt4all.py وكذلك main.py
- يحتاج المستخدم أيضًا إلى مفتاح Openai API للاستخدام
خريطة الطريق