
? Huggingface | Blog | ? Laporan Teknis
Kami memperkenalkan exaone-3.0-7.8b-instruct, model generatif bilingual (Inggris dan Korea) yang dilatih sebelumnya dan instruksi dengan parameter 7,8 miliar. Model ini dilatih sebelumnya dengan token yang dikuratori 8T dan pasca-terlatih dengan fine-tuning yang diawasi dan optimasi preferensi langsung. Ini menunjukkan kinerja benchmark yang sangat kompetitif terhadap model terbuka canggih lainnya dengan ukuran yang sama.
Beberapa hasil eksperimen ditunjukkan di bawah ini. Hasil evaluasi penuh dapat ditemukan dalam laporan teknis.
| Bahasa | Benchmark | Exaone 3.0 7.8b Inst. | Llama 3.1 8b Inst. | Gemma 2 9B Inst. | Qwen 2 7b inst. | Phi 3 7b inst. | Mistral 7B Inst. |
|---|---|---|---|---|---|---|---|
| Bahasa inggris | Mt-Bench | 9.01 | 7.95 | 8.52 | 8.41 | 8.52 | 7.72 |
| Arena-Hard-V0.1 | 46.8 | 28.0 | 42.1 | 21.7 | 29.1 | 16.2 | |
| Wildbench | 48.2 | 34.5 | 41.5 | 34.9 | 32.8 | 29.0 | |
| Alpacaeval 2.0 LC | 45.0 | 31.5 | 47.5 | 24.5 | 37.1 | 31.0 | |
| Korea | Komt-Bench 1 | 8.92 | 6.06 | 7.92 | 7.69 | 4.87 | 5.20 |
| Logickor | 8.62 | 5.40 | 8.07 | 6.12 | 3.76 | 3.42 |
transformers>=4.41.0 untuk model ExaOne 3.0. Versi terbaru disarankan untuk digunakan. import torch
from transformers import AutoModelForCausalLM , AutoTokenizer
model = AutoModelForCausalLM . from_pretrained (
"LGAI-EXAONE/EXAONE-3.0-7.8B-Instruct" ,
torch_dtype = torch . bfloat16 ,
trust_remote_code = True ,
device_map = "auto"
)
tokenizer = AutoTokenizer . from_pretrained ( "LGAI-EXAONE/EXAONE-3.0-7.8B-Instruct" )
# Choose your prompt
prompt = "Explain who you are" # English example
prompt = "너의 소원을 말해봐" # Korean example
messages = [
{ "role" : "system" , "content" : "You are EXAONE model from LG AI Research, a helpful assistant." },
{ "role" : "user" , "content" : prompt }
]
input_ids = tokenizer . apply_chat_template (
messages ,
tokenize = True ,
add_generation_prompt = True ,
return_tensors = "pt"
)
output = model . generate (
input_ids . to ( "cuda" ),
eos_token_id = tokenizer . eos_token_id ,
max_new_tokens = 128
)
print ( tokenizer . decode ( output [ 0 ]))Catatan
Model bahasa instruksi-tuned ExaOne 3.0 dilatih untuk memanfaatkan prompt sistem, jadi kami sangat merekomendasikan menggunakan petunjuk sistem yang disediakan dalam cuplikan kode di atas.
Model bahasa Exaone memiliki keterbatasan tertentu dan kadang -kadang dapat menghasilkan respons yang tidak pantas. Model bahasa menghasilkan respons berdasarkan probabilitas output token, dan ditentukan selama belajar dari data pelatihan. Meskipun kami telah melakukan segala upaya untuk mengecualikan informasi pribadi, berbahaya, dan bias dari data pelatihan, beberapa konten yang bermasalah mungkin masih dimasukkan, berpotensi mengarah pada tanggapan yang tidak diinginkan. Harap dicatat bahwa teks yang dihasilkan oleh model bahasa ExaOne tidak mencerminkan pandangan penelitian LG AI.
Penelitian LG AI berusaha untuk mengurangi risiko potensial yang mungkin timbul dari model bahasa Exaone. Pengguna tidak diizinkan untuk terlibat dalam kegiatan jahat apa pun (misalnya, kunci dalam informasi ilegal) yang dapat mendorong penciptaan output yang tidak pantas yang melanggar prinsip etika LG AI saat menggunakan model bahasa Exaone.
Model ini dilisensikan di bawah Perjanjian Lisensi Model Exaone AI 1.1 - NC
@article{exaone-3.0-7.8B-instruct,
title={EXAONE 3.0 7.8B Instruction Tuned Language Model},
author={LG AI Research},
journal={arXiv preprint arXiv:2408.03541},
year={2024}
}
Dukungan Teknis Penelitian AI AI: [email protected]
Komt-Bench adalah dataset yang dibuat dengan menerjemahkan mt-bench ke dalam bahasa Korea; Lihat ReadMe untuk detail lebih lanjut. ↩