
? Huggingface | ブログ| ?技術レポート
78億パラメーターを備えた事前に訓練された指導と指導チューニング(英語および韓国)生成モデルであるExaONE-3.0-7.8B-Instructを紹介します。このモデルは、8Tのキュレーションされたトークンで事前に訓練され、監視された微調整と直接選好の最適化で訓練後に訓練されました。同様のサイズの他の最先端のオープンモデルに対して非常に競争力のあるベンチマークパフォーマンスを示しています。
いくつかの実験結果を以下に示します。完全な評価結果は、テクニカルレポートに記載されています。
| 言語 | ベンチマーク | exaone 3.0 7.8b Inst。 | ラマ3.1 8b Inst。 | ジェマ2 9b Inst。 | Qwen 2 7b Inst。 | Phi 3 7b Inst。 | ミストラル7b Inst。 |
|---|---|---|---|---|---|---|---|
| 英語 | MTベンチ | 9.01 | 7.95 | 8.52 | 8.41 | 8.52 | 7.72 |
| Arena-Hard-V0.1 | 46.8 | 28.0 | 42.1 | 21.7 | 29.1 | 16.2 | |
| wildbench | 48.2 | 34.5 | 41.5 | 34.9 | 32.8 | 29.0 | |
| アルパカエバル2.0 LC | 45.0 | 31.5 | 47.5 | 24.5 | 37.1 | 31.0 | |
| 韓国語 | Komt-bench 1 | 8.92 | 6.06 | 7.92 | 7.69 | 4.87 | 5.20 |
| logickor | 8.62 | 5.40 | 8.07 | 6.12 | 3.76 | 3.42 |
transformers>=4.41.0 。最新バージョンは使用することをお勧めします。 import torch
from transformers import AutoModelForCausalLM , AutoTokenizer
model = AutoModelForCausalLM . from_pretrained (
"LGAI-EXAONE/EXAONE-3.0-7.8B-Instruct" ,
torch_dtype = torch . bfloat16 ,
trust_remote_code = True ,
device_map = "auto"
)
tokenizer = AutoTokenizer . from_pretrained ( "LGAI-EXAONE/EXAONE-3.0-7.8B-Instruct" )
# Choose your prompt
prompt = "Explain who you are" # English example
prompt = "너의 소원을 말해봐" # Korean example
messages = [
{ "role" : "system" , "content" : "You are EXAONE model from LG AI Research, a helpful assistant." },
{ "role" : "user" , "content" : prompt }
]
input_ids = tokenizer . apply_chat_template (
messages ,
tokenize = True ,
add_generation_prompt = True ,
return_tensors = "pt"
)
output = model . generate (
input_ids . to ( "cuda" ),
eos_token_id = tokenizer . eos_token_id ,
max_new_tokens = 128
)
print ( tokenizer . decode ( output [ 0 ]))注記
EXAONE 3.0命令チューニング言語モデルは、システムプロンプトを利用するようにトレーニングされたため、上記のコードスニペットで提供されるシステムプロンプトを使用することを強くお勧めします。
EXAONE言語モデルには特定の制限があり、不適切な応答を生成する場合があります。言語モデルは、トークンの出力確率に基づいて応答を生成し、トレーニングデータから学習中に決定されます。トレーニングデータから個人的で有害な、偏った情報を除外するためにあらゆる努力を払ってきましたが、いくつかの問題のあるコンテンツがまだ含まれている可能性があり、望ましくない応答につながる可能性があります。 EXAONE言語モデルによって生成されたテキストは、LG AIの研究の見解を反映していないことに注意してください。
LG AI Researchは、EXAONE言語モデルから生じる可能性のある潜在的なリスクを減らすよう努めています。ユーザーは、EXAONE言語モデルを使用する際にLG AIの倫理原則に違反する不適切な出力の作成を誘導する可能性のある悪意のある活動(例えば、違法情報のキーイング)に従事することは許可されていません。
このモデルは、EXAONE AIモデルライセンス契約1.1 -NCでライセンスされています
@article{exaone-3.0-7.8B-instruct,
title={EXAONE 3.0 7.8B Instruction Tuned Language Model},
author={LG AI Research},
journal={arXiv preprint arXiv:2408.03541},
year={2024}
}
LG AI研究技術サポート:[email protected]
Komt-Benchは、MTベンチを韓国に変換することによって作成されたデータセットです。詳細については、READMEを参照してください。 ↩