
? Umarmung | Blog | ? Technischer Bericht
Wir führen Exaone-3.0-7.8B-Instruct, ein vorgebildetes und anweisungsabsprachiger (englischer und koreanischer) Generativmodell mit 7,8-Milliarden-Parametern ein. Das Modell wurde mit 8T-kuratierten Token vorbereitet und mit überwachtem Feinabstimmung und direkter Präferenzoptimierung nachgebildet. Es zeigt eine stark wettbewerbsfähige Benchmark-Leistung gegen andere hochmoderne offene Modelle mit ähnlicher Größe.
Einige experimentelle Ergebnisse sind unten gezeigt. Die vollständigen Bewertungsergebnisse finden Sie im technischen Bericht.
| Sprache | Benchmark | Exaone 3.0 7.8b Inst. | Lama 3.1 8b Inst. | Gemma 2 9b Inst. | Qwen 2 7b Inst. | Phi 3 7b Inst. | Mistral 7b Inst. |
|---|---|---|---|---|---|---|---|
| Englisch | MT-Bench | 9.01 | 7.95 | 8.52 | 8.41 | 8.52 | 7.72 |
| Arena-Hard-V0.1 | 46,8 | 28.0 | 42.1 | 21.7 | 29.1 | 16.2 | |
| Wildbench | 48.2 | 34.5 | 41,5 | 34.9 | 32.8 | 29.0 | |
| AlpaCaeval 2.0 LC | 45,0 | 31.5 | 47,5 | 24.5 | 37.1 | 31.0 | |
| Koreanisch | Komt-Bench 1 | 8.92 | 6.06 | 7.92 | 7.69 | 4.87 | 5.20 |
| Logickor | 8.62 | 5.40 | 8.07 | 6.12 | 3.76 | 3.42 |
transformers>=4.41.0 für das Exaone 3.0 -Modell. Die neueste Version wird empfohlen. import torch
from transformers import AutoModelForCausalLM , AutoTokenizer
model = AutoModelForCausalLM . from_pretrained (
"LGAI-EXAONE/EXAONE-3.0-7.8B-Instruct" ,
torch_dtype = torch . bfloat16 ,
trust_remote_code = True ,
device_map = "auto"
)
tokenizer = AutoTokenizer . from_pretrained ( "LGAI-EXAONE/EXAONE-3.0-7.8B-Instruct" )
# Choose your prompt
prompt = "Explain who you are" # English example
prompt = "너의 소원을 말해봐" # Korean example
messages = [
{ "role" : "system" , "content" : "You are EXAONE model from LG AI Research, a helpful assistant." },
{ "role" : "user" , "content" : prompt }
]
input_ids = tokenizer . apply_chat_template (
messages ,
tokenize = True ,
add_generation_prompt = True ,
return_tensors = "pt"
)
output = model . generate (
input_ids . to ( "cuda" ),
eos_token_id = tokenizer . eos_token_id ,
max_new_tokens = 128
)
print ( tokenizer . decode ( output [ 0 ]))Notiz
Das Exaone 3.0-Sprachmodell wurde geschult, um die Systemaufforderung zu verwenden. Wir empfehlen daher dringend, die im obigen Code-Snippet bereitgestellten Systemanforderungen zu verwenden.
Das Exaone -Sprachmodell hat bestimmte Einschränkungen und kann gelegentlich unangemessene Antworten generieren. Das Sprachmodell generiert Antworten, die auf der Ausgangswahrscheinlichkeit von Token basieren, und wird während des Lernens aus Trainingsdaten ermittelt. Während wir alle Anstrengungen unternommen haben, um persönliche, schädliche und voreingenommene Informationen aus den Trainingsdaten auszuschließen, können immer noch problematische Inhalte enthalten sein, was möglicherweise zu unerwünschten Antworten führt. Bitte beachten Sie, dass der vom Exaone -Sprachmodell generierte Text die Ansichten der LG AI -Forschung nicht widerspiegelt.
Die LG AI -Forschung bemüht sich, potenzielle Risiken zu verringern, die sich aus dem Exaone -Sprachmodell ergeben können. Benutzer dürfen keine böswilligen Aktivitäten (z. B. ein Kloster illegaler Informationen) durchführen, die die Erstellung von unangemessenen Ausgängen, die gegen die ethischen Prinzipien von LG AI verstoßen, bei der Verwendung von Exaone -Sprachmodell möglicherweise induzieren.
Das Modell ist unter Exaone AI -Modelllizenzvereinbarung 1.1 - NC lizenziert
@article{exaone-3.0-7.8B-instruct,
title={EXAONE 3.0 7.8B Instruction Tuned Language Model},
author={LG AI Research},
journal={arXiv preprint arXiv:2408.03541},
year={2024}
}
LG AI Research Technical Support: [email protected]
Komt-Bench ist ein Datensatz, das durch Übersetzung von MT-Bench in Koreanisch erstellt wurde. Weitere Informationen finden Sie unter Readme. ↩