أصدرت AI21LABS مؤخرًا أحدث طرازات اللغة الكبيرة في Jamba 1.6 ، والتي تُعرف بأنها أقوى نموذج معالجة النصوص الطويل الأقوى والكفاءة في السوق. بالمقارنة مع نموذج المحول التقليدي ، فإن نموذج Jamba يعرض سرعة وجودة أعلى عند التعامل مع السياقات الطويلة ، وسرعة الاستدلال أسرع 2.5 مرة من النماذج المماثلة ، مما يمثل اختراقًا تكنولوجيًا جديدًا.
تتضمن سلسلة Jamba 1.6 Jamba Mini (1.2 مليار معلمة) و Jamba كبيرة (9.4 مليار معلمة) ، ويتم تحسينها للتطبيقات التجارية ، مع مكالمات الوظائف ، والمخرجات المنظمة (مثل JSON) وقدرات التوليد القائمة على الواقع. تحتوي هذه النماذج على مجموعة واسعة من التطبيقات ، بدءًا من المساعدين الأذكياء على مستوى المؤسسة إلى البحوث الأكاديمية ، ويمكن أن تلعب دورًا مهمًا.
يعتمد هذا النموذج اتفاقية ترخيص مفتوحة المصدر تسمى ترخيص نموذج Jamba Open Model ، مما يسمح للمستخدمين بإجراء البحوث والاستخدام التجاري بموجب فرضية الشروط التالية. بالإضافة إلى ذلك ، فإن سلسلة Jamba1.6 لديها موعد نهائي في 5 مارس 2024 ويدعم لغات متعددة ، بما في ذلك اللغة الإنجليزية والإسبانية والفرنسية والبرتغالية والإيطالية والهولندية والألمانية والعربية والعبرية ، مما يضمن تكيف مع احتياجات المستخدمين في جميع أنحاء العالم.
من حيث تقييم الأداء ، كان أداء Jamba Large 1.6 جيدًا في معايير متعددة. في الاختبارات القياسية مثل Arena Hard و Crag و FinanceBench ، تجاوزت نتائجها منافسيها ، وأظهرت قدراتهم اللغوية المتميزة وقدرات التوليد. نموذج جامبا بارز بشكل خاص في التعامل مع النصوص الطويلة.
لضمان الاستدلال الفعال ، يحتاج المستخدمون الذين يستخدمون نماذج Jamba إلى تثبيت مكتبات Python ذات الصلة أولاً ، ويطلب من أجهزة CUDA دعم تشغيل النموذج. يمكن للمستخدمين تشغيل النموذج من خلال إطار VLLM أو Transformers. بدعم من وحدات معالجة الرسومات على نطاق واسع ، يمكن لـ Jamba Large 1.6 التعامل مع السياقات التي تصل إلى 256 ألفًا ، وهو ما لم يكن ممكنًا في النماذج السابقة.
النموذج: https://huggingface.co/ai21labs/ai21-jamba-large-1.6
النقاط الرئيسية:
نموذج Jamba1.6 أسرع وجودة أكبر لمعالجة النص الطويل ويدعم لغات متعددة.
تتيح اتفاقية ترخيص المصادر المفتوحة البحث والاستخدام التجاري ويسهل مشاركة التكنولوجيا.
تفوقت على المنتجات المتنافسة في معايير متعددة.