
? 포옹 페이스 | 블로그 | ? 기술 보고서
우리는 ExaOne-3.0-7.8B-무역 구조를 소개합니다. 이 모델은 8T 큐 레이트 된 토큰으로 미리 훈련하고 감독 된 미세 조정 및 직접 선호도 최적화로 훈련되었습니다. 비슷한 규모의 다른 최첨단 개방형 모델에 대한 경쟁이 치열한 벤치 마크 성능을 보여줍니다.
일부 실험 결과는 다음과 같습니다. 전체 평가 결과는 기술 보고서에서 찾을 수 있습니다.
| 언어 | 기준 | Exaone 3.0 7.8b inst. | 라마 3.1 8B inst. | 젬마 2 9B inst. | Qwen 2 7B inst. | PHI 3 7B inst. | 미스트랄 7b inst. |
|---|---|---|---|---|---|---|---|
| 영어 | MT- 벤치 | 9.01 | 7.95 | 8.52 | 8.41 | 8.52 | 7.72 |
| 경기장-하드 -V0.1 | 46.8 | 28.0 | 42.1 | 21.7 | 29.1 | 16.2 | |
| 와일드 벤치 | 48.2 | 34.5 | 41.5 | 34.9 | 32.8 | 29.0 | |
| Alpacaeval 2.0 LC | 45.0 | 31.5 | 47.5 | 24.5 | 37.1 | 31.0 | |
| 한국인 | Komt-Bench 1 | 8.92 | 6.06 | 7.92 | 7.69 | 4.87 | 5.20 |
| 로비 르 | 8.62 | 5.40 | 8.07 | 6.12 | 3.76 | 3.42 |
transformers>=4.41.0 . 최신 버전은 사용하는 것이 좋습니다. import torch
from transformers import AutoModelForCausalLM , AutoTokenizer
model = AutoModelForCausalLM . from_pretrained (
"LGAI-EXAONE/EXAONE-3.0-7.8B-Instruct" ,
torch_dtype = torch . bfloat16 ,
trust_remote_code = True ,
device_map = "auto"
)
tokenizer = AutoTokenizer . from_pretrained ( "LGAI-EXAONE/EXAONE-3.0-7.8B-Instruct" )
# Choose your prompt
prompt = "Explain who you are" # English example
prompt = "너의 소원을 말해봐" # Korean example
messages = [
{ "role" : "system" , "content" : "You are EXAONE model from LG AI Research, a helpful assistant." },
{ "role" : "user" , "content" : prompt }
]
input_ids = tokenizer . apply_chat_template (
messages ,
tokenize = True ,
add_generation_prompt = True ,
return_tensors = "pt"
)
output = model . generate (
input_ids . to ( "cuda" ),
eos_token_id = tokenizer . eos_token_id ,
max_new_tokens = 128
)
print ( tokenizer . decode ( output [ 0 ]))메모
Exaone 3.0 명령 조정 언어 모델은 시스템 프롬프트를 활용하도록 교육을 받았으므로 위의 코드 스 니펫에 제공된 시스템 프롬프트를 사용하는 것이 좋습니다.
Exaone 언어 모델에는 특정한 한계가 있으며 때로는 부적절한 응답을 생성 할 수 있습니다. 언어 모델은 토큰의 출력 확률에 따라 응답을 생성하며 교육 데이터로부터 학습하는 동안 결정됩니다. 우리는 교육 데이터에서 개인적이고 유해하며 편향된 정보를 배제하기 위해 모든 노력을 기울 였지만 일부 문제가있는 콘텐츠가 여전히 포함될 수 있으며 잠재적으로 바람직하지 않은 응답으로 이어질 수 있습니다. Exaone Language Model에서 생성 된 텍스트는 LG AI 연구의 견해를 반영하지 않습니다.
LG AI Research는 Exaone 언어 모델에서 발생할 수있는 잠재적 위험을 줄이기 위해 노력합니다. 사용자는 Exaone 언어 모델을 사용할 때 LG AI의 윤리 원칙을 위반하는 부적절한 출력의 생성을 유도 할 수있는 악의적 인 활동 (예 : 불법 정보의 키)에 참여할 수 없습니다.
이 모델은 Exaone AI 모델 라이센스 계약 1.1 -NC에 따라 라이센스가 부여됩니다.
@article{exaone-3.0-7.8B-instruct,
title={EXAONE 3.0 7.8B Instruction Tuned Language Model},
author={LG AI Research},
journal={arXiv preprint arXiv:2408.03541},
year={2024}
}
LG AI 연구 기술 지원 : [email protected]
Komt-Bench는 MT-Bench를 한국으로 번역하여 생성 된 데이터 세트입니다. 자세한 내용은 readme를 참조하십시오. ↩