LLM-MEM؟
نموذج لغة محسّن مع تخزين الذاكرة الدلالية
التنفيذ القائم على بيثون يزيد من نماذج اللغة مع الذاكرة الدلالية المستمرة باستخدام تضمينات المتجهات والبحث عن التشابه.
؟ سمات
- التقطيع الدلالي للمحادثات باستخدام NLTK
- توليد التضمينات المتجهة باستخدام محولات الجملة
- استرجاع السياق القائم على تشابه جيب التجربة
- تخزين الذاكرة المستمر باستخدام قاعدة بيانات المتجه
- حقن السياق التلقائي لمزيد من الاستجابات المتماسكة
- تصحيح النص الذكي مع الحفاظ على كتلة الكود
كومة تقنية
-
sentence-transformers : لتوليد التضمينات الدلالية -
nltk : مجموعة أدوات معالجة اللغة الطبيعية لمعالجة النص - تكامل مخصص LLM
- متجر المتجهات لتخزين واسترجاع التضمينات
- استراحة نقاط نهاية API لعمليات المتجهات
؟ المتطلبات الأساسية
- محولات الجملة
- NLTK
- الطلبات
- Google-Generativeai
بداية سريعة
- استنساخ المستودع:
git clone https://github.com/Abhigyan126/LLM-MEM.git
cd LLM-MEM
- تثبيت التبعيات:
pip install sentence-transformers nltk requests google-generativeai
- إنشاء ملف .env
- قم بتشغيل البرنامج النصي الرئيسي:
كيف تعمل
- معالجة النص : تتم معالجة الرسائل الواردة وتنظيفها
- توليد التضمين : يحول النص إلى تضمينات ناقلات
- البحث الدلالي : يجد السياقات السابقة ذات الصلة باستخدام تشابه جيب التمام
- تكامل السياق : دمج التاريخ ذي الصلة مع الاستعلام الحالي
- توليد الاستجابة : يولد الاستجابة باستخدام LLM مع سياق محسن
- تخزين الذاكرة : يخزن تفاعلات جديدة للرجوع إليها في المستقبل
؟ إعدادات
يستخدم النظام عدة معلمات قابلة للتكوين:
- الحد الأقصى لطول الجزء: 2000 حرف
- الحد الأدنى لحجم الجزء: 100 حرف
- عتبة التشابه: 0.5
- الافتراضي أقرب الجيران: 10