EXAONE 3.0
1.0.0

?拥抱面| 博客| ?技术报告
我们介绍了Exaone-3.0-7.8b-Instruct,这是一种预先培训和指令调整的双语(英语和韩语)生成模型,具有78亿个参数。该模型通过8T策划的令牌进行了预训练,并通过监督的微调和直接偏好优化进行了训练。它表现出与其他类似大小的其他最先进的开放型号相对于其他最先进的开放模型的基准性能。
一些实验结果如下所示。完整的评估结果可以在技术报告中找到。
| 语言 | 基准 | Exaone 3.0 7.8B Inst。 | 骆驼3.1 8B Inst。 | Gemma 2 9B Inst。 | QWEN 2 7B Inst。 | Phi 3 7B Inst。 | Mistral 7b 研究 |
|---|---|---|---|---|---|---|---|
| 英语 | 山台 | 9.01 | 7.95 | 8.52 | 8.41 | 8.52 | 7.72 |
| 竞技场hard-v0.1 | 46.8 | 28.0 | 42.1 | 21.7 | 29.1 | 16.2 | |
| 野人 | 48.2 | 34.5 | 41.5 | 34.9 | 32.8 | 29.0 | |
| 羊驼毛2.0 LC | 45.0 | 31.5 | 47.5 | 24.5 | 37.1 | 31.0 | |
| 韩国人 | KOMT板凳1 | 8.92 | 6.06 | 7.92 | 7.69 | 4.87 | 5.20 |
| logickor | 8.62 | 5.40 | 8.07 | 6.12 | 3.76 | 3.42 |
transformers>=4.41.0用于Exaone 3.0模型。建议使用最新版本。 import torch
from transformers import AutoModelForCausalLM , AutoTokenizer
model = AutoModelForCausalLM . from_pretrained (
"LGAI-EXAONE/EXAONE-3.0-7.8B-Instruct" ,
torch_dtype = torch . bfloat16 ,
trust_remote_code = True ,
device_map = "auto"
)
tokenizer = AutoTokenizer . from_pretrained ( "LGAI-EXAONE/EXAONE-3.0-7.8B-Instruct" )
# Choose your prompt
prompt = "Explain who you are" # English example
prompt = "너의 소원을 말해봐" # Korean example
messages = [
{ "role" : "system" , "content" : "You are EXAONE model from LG AI Research, a helpful assistant." },
{ "role" : "user" , "content" : prompt }
]
input_ids = tokenizer . apply_chat_template (
messages ,
tokenize = True ,
add_generation_prompt = True ,
return_tensors = "pt"
)
output = model . generate (
input_ids . to ( "cuda" ),
eos_token_id = tokenizer . eos_token_id ,
max_new_tokens = 128
)
print ( tokenizer . decode ( output [ 0 ]))笔记
Exaone 3.0指令调整语言模型经过培训以利用系统提示,因此我们强烈建议使用上面“代码”片段中提供的系统提示。
Exaone语言模型有一定的局限性,偶尔可能会产生不适当的响应。该语言模型根据令牌的输出概率产生响应,并在从培训数据中学习期间确定。尽管我们已竭尽全力将培训数据中的个人,有害和有偏见的信息排除在外,但仍可能包括一些有问题的内容,可能导致不良响应。请注意,Exaone语言模型产生的文本并不能反映LG AI研究的观点。
LG AI研究致力于降低Exaone语言模型可能引起的潜在风险。不允许用户从事任何恶意活动(例如,非法信息中的键盘),这些活动可能会引起不适当的输出,从而在使用Exaone语言模型时违反LG AI的道德原则。
该模型是根据Exaone AI模型许可协议1.1 -NC许可的
@article{exaone-3.0-7.8B-instruct,
title={EXAONE 3.0 7.8B Instruction Tuned Language Model},
author={LG AI Research},
journal={arXiv preprint arXiv:2408.03541},
year={2024}
}
LG AI研究技术支持:[email protected]
Komt-Bench是通过将MT Bench转换为韩语而创建的数据集;有关更多详细信息,请参见Readme。 ↩