
؟ Luggingface | بلوق | ؟ التقرير الفني
نقدم Exaone-3.0-7.8b-instruct ، وهو نموذج توليدي ثنائي اللغة (الإنجليزية والكورية) مع 7.8 مليار من المعلمة. تم تدريب النموذج مسبقًا مع الرموز الممنوحة 8T وبعد تدريبها مع صقل خاضع للإشراف وتحسين التفضيل المباشر. إنه يوضح الأداء القياسي التنافسي للغاية ضد النماذج المفتوحة الحديثة ذات الحجم المماثل.
وترد بعض النتائج التجريبية أدناه. يمكن العثور على نتائج التقييم الكاملة في التقرير الفني.
| لغة | معيار | exaone 3.0 7.8b Inst. | لاما 3.1 8B Inst. | جيما 2 9B Inst. | Qwen 2 7B Inst. | فاي 3 7B Inst. | MISTRAL 7B Inst. |
|---|---|---|---|---|---|---|---|
| إنجليزي | جبل المقعد | 9.01 | 7.95 | 8.52 | 8.41 | 8.52 | 7.72 |
| Arena-Hard-V0.1 | 46.8 | 28.0 | 42.1 | 21.7 | 29.1 | 16.2 | |
| Wildbench | 48.2 | 34.5 | 41.5 | 34.9 | 32.8 | 29.0 | |
| alpacaeval 2.0 LC | 45.0 | 31.5 | 47.5 | 24.5 | 37.1 | 31.0 | |
| كوري | Komt-bench 1 | 8.92 | 6.06 | 7.92 | 7.69 | 4.87 | 5.20 |
| لوجيكور | 8.62 | 5.40 | 8.07 | 6.12 | 3.76 | 3.42 |
transformers>=4.41.0 لنموذج exaone 3.0. يوصى باستخدام الإصدار الأخير. import torch
from transformers import AutoModelForCausalLM , AutoTokenizer
model = AutoModelForCausalLM . from_pretrained (
"LGAI-EXAONE/EXAONE-3.0-7.8B-Instruct" ,
torch_dtype = torch . bfloat16 ,
trust_remote_code = True ,
device_map = "auto"
)
tokenizer = AutoTokenizer . from_pretrained ( "LGAI-EXAONE/EXAONE-3.0-7.8B-Instruct" )
# Choose your prompt
prompt = "Explain who you are" # English example
prompt = "너의 소원을 말해봐" # Korean example
messages = [
{ "role" : "system" , "content" : "You are EXAONE model from LG AI Research, a helpful assistant." },
{ "role" : "user" , "content" : prompt }
]
input_ids = tokenizer . apply_chat_template (
messages ,
tokenize = True ,
add_generation_prompt = True ,
return_tensors = "pt"
)
output = model . generate (
input_ids . to ( "cuda" ),
eos_token_id = tokenizer . eos_token_id ,
max_new_tokens = 128
)
print ( tokenizer . decode ( output [ 0 ]))ملحوظة
تم تدريب نموذج لغة تعليمات ExaOne 3.0 على استخدام موجه النظام ، لذلك نوصي بشدة باستخدام مطالبات النظام المتوفرة في مقتطف الرمز أعلاه.
يحتوي نموذج لغة exaone على قيود معينة وقد يولد أحيانًا استجابات غير لائقة. يولد نموذج اللغة ردود بناءً على احتمال الإخراج للرموز ، ويتم تحديده أثناء التعلم من بيانات التدريب. على الرغم من أننا بذلنا كل جهد ممكن لاستبعاد المعلومات الشخصية والضارة والحيوية من بيانات التدريب ، إلا أنه قد لا يزال يتم تضمين بعض المحتوى الإشكالي ، مما يؤدي إلى استجابات غير مرغوب فيها. يرجى ملاحظة أن النص الذي تم إنشاؤه بواسطة نموذج لغة exaone لا يعكس وجهات نظر LG AI Research.
تسعى بحث LG AI إلى تقليل المخاطر المحتملة التي قد تنشأ من نموذج لغة Exaone. لا يُسمح للمستخدمين بالانخراط في أي أنشطة خبيثة (على سبيل المثال ، التعلق في المعلومات غير القانونية) التي قد تحفز على إنشاء مخرجات غير لائقة تنتهك المبادئ الأخلاقية لـ LG AI عند استخدام نموذج لغة exaone.
النموذج مرخص بموجب اتفاقية ترخيص نموذج AI Exaone 1.1 - NC
@article{exaone-3.0-7.8B-instruct,
title={EXAONE 3.0 7.8B Instruction Tuned Language Model},
author={LG AI Research},
journal={arXiv preprint arXiv:2408.03541},
year={2024}
}
LG AI Research Support: [email protected]
Komt-Bench هي مجموعة بيانات تم إنشاؤها عن طريق ترجمة Mt-Bench إلى الكورية ؛ انظر README لمزيد من التفاصيل. ↩