EXAONE 3.0
1.0.0

?擁抱面| 博客| ?技術報告
我們介紹了Exaone-3.0-7.8b-Instruct,這是一種預先培訓和指令調整的雙語(英語和韓語)生成模型,具有78億個參數。該模型通過8T策劃的令牌進行了預訓練,並通過監督的微調和直接偏好優化進行了訓練。它表現出與其他類似大小的其他最先進的開放型號相對於其他最先進的開放模型的基準性能。
一些實驗結果如下所示。完整的評估結果可以在技術報告中找到。
| 語言 | 基準 | Exaone 3.0 7.8B Inst。 | 駱駝3.1 8B Inst。 | Gemma 2 9B Inst。 | QWEN 2 7B Inst。 | Phi 3 7B Inst。 | Mistral 7b 研究 |
|---|---|---|---|---|---|---|---|
| 英語 | 山台 | 9.01 | 7.95 | 8.52 | 8.41 | 8.52 | 7.72 |
| 競技場hard-v0.1 | 46.8 | 28.0 | 42.1 | 21.7 | 29.1 | 16.2 | |
| 野人 | 48.2 | 34.5 | 41.5 | 34.9 | 32.8 | 29.0 | |
| 羊駝毛2.0 LC | 45.0 | 31.5 | 47.5 | 24.5 | 37.1 | 31.0 | |
| 韓國人 | KOMT板凳1 | 8.92 | 6.06 | 7.92 | 7.69 | 4.87 | 5.20 |
| logickor | 8.62 | 5.40 | 8.07 | 6.12 | 3.76 | 3.42 |
transformers>=4.41.0用於Exaone 3.0模型。建議使用最新版本。 import torch
from transformers import AutoModelForCausalLM , AutoTokenizer
model = AutoModelForCausalLM . from_pretrained (
"LGAI-EXAONE/EXAONE-3.0-7.8B-Instruct" ,
torch_dtype = torch . bfloat16 ,
trust_remote_code = True ,
device_map = "auto"
)
tokenizer = AutoTokenizer . from_pretrained ( "LGAI-EXAONE/EXAONE-3.0-7.8B-Instruct" )
# Choose your prompt
prompt = "Explain who you are" # English example
prompt = "너의 소원을 말해봐" # Korean example
messages = [
{ "role" : "system" , "content" : "You are EXAONE model from LG AI Research, a helpful assistant." },
{ "role" : "user" , "content" : prompt }
]
input_ids = tokenizer . apply_chat_template (
messages ,
tokenize = True ,
add_generation_prompt = True ,
return_tensors = "pt"
)
output = model . generate (
input_ids . to ( "cuda" ),
eos_token_id = tokenizer . eos_token_id ,
max_new_tokens = 128
)
print ( tokenizer . decode ( output [ 0 ]))筆記
Exaone 3.0指令調整語言模型經過培訓以利用系統提示,因此我們強烈建議使用上面“代碼”片段中提供的系統提示。
Exaone語言模型有一定的局限性,偶爾可能會產生不適當的響應。該語言模型根據令牌的輸出概率產生響應,並在從培訓數據中學習期間確定。儘管我們已竭盡全力將培訓數據中的個人,有害和有偏見的信息排除在外,但仍可能包括一些有問題的內容,可能導致不良響應。請注意,Exaone語言模型產生的文本並不能反映LG AI研究的觀點。
LG AI研究致力於降低Exaone語言模型可能引起的潛在風險。不允許用戶從事任何惡意活動(例如,非法信息中的鍵盤),這些活動可能會引起不適當的輸出,從而在使用Exaone語言模型時違反LG AI的道德原則。
該模型是根據Exaone AI模型許可協議1.1 -NC許可的
@article{exaone-3.0-7.8B-instruct,
title={EXAONE 3.0 7.8B Instruction Tuned Language Model},
author={LG AI Research},
journal={arXiv preprint arXiv:2408.03541},
year={2024}
}
LG AI研究技術支持:[email protected]
Komt-Bench是通過將MT Bench轉換為韓語而創建的數據集;有關更多詳細信息,請參見Readme。 ↩