
? Huggingface | Blog | ? Informe técnico
Introducimos al INSTRUST EXAOONE-3.0-7.8B, un modelo generativo bilingüe (inglés y coreano) previamente capacitado y ajustado por instrucciones con 7.8 mil millones de parámetros. El modelo se entrenó previamente con tokens curados 8T y se entrenó con el ajuste fino supervisado y la optimización de preferencia directa. Demuestra un rendimiento de referencia altamente competitivo contra otros modelos abiertos de última generación de tamaño similar.
Algunos resultados experimentales se muestran a continuación. Los resultados de la evaluación completos se pueden encontrar en el informe técnico.
| Idioma | Punto de referencia | Exaone 3.0 7.8b inst. | Llama 3.1 8b inst. | Gemma 2 9B Inst. | Qwen 2 7b inst. | Phi 3 7b inst. | Mistral 7b Inst. |
|---|---|---|---|---|---|---|---|
| Inglés | Banco | 9.01 | 7.95 | 8.52 | 8.41 | 8.52 | 7.72 |
| Arena-Hard-V0.1 | 46.8 | 28.0 | 42.1 | 21.7 | 29.1 | 16.2 | |
| Bancada de la naturaleza | 48.2 | 34.5 | 41.5 | 34.9 | 32.8 | 29.0 | |
| Alpacaeval 2.0 lc | 45.0 | 31.5 | 47.5 | 24.5 | 37.1 | 31.0 | |
| coreano | Komt-Bench 1 | 8.92 | 6.06 | 7.92 | 7.69 | 4.87 | 5.20 |
| Logickor | 8.62 | 5.40 | 8.07 | 6.12 | 3.76 | 3.42 |
transformers>=4.41.0 para el modelo Exaone 3.0. Se recomienda usar la última versión. import torch
from transformers import AutoModelForCausalLM , AutoTokenizer
model = AutoModelForCausalLM . from_pretrained (
"LGAI-EXAONE/EXAONE-3.0-7.8B-Instruct" ,
torch_dtype = torch . bfloat16 ,
trust_remote_code = True ,
device_map = "auto"
)
tokenizer = AutoTokenizer . from_pretrained ( "LGAI-EXAONE/EXAONE-3.0-7.8B-Instruct" )
# Choose your prompt
prompt = "Explain who you are" # English example
prompt = "너의 소원을 말해봐" # Korean example
messages = [
{ "role" : "system" , "content" : "You are EXAONE model from LG AI Research, a helpful assistant." },
{ "role" : "user" , "content" : prompt }
]
input_ids = tokenizer . apply_chat_template (
messages ,
tokenize = True ,
add_generation_prompt = True ,
return_tensors = "pt"
)
output = model . generate (
input_ids . to ( "cuda" ),
eos_token_id = tokenizer . eos_token_id ,
max_new_tokens = 128
)
print ( tokenizer . decode ( output [ 0 ]))Nota
El modelo de lenguaje de instrucciones EXAOne 3.0 se capacitó para utilizar la solicitud del sistema, por lo que recomendamos que utilice las indicaciones del sistema proporcionadas en el fragmento de código anterior.
El modelo de lenguaje ExaOne tiene ciertas limitaciones y ocasionalmente puede generar respuestas inapropiadas. El modelo de idioma genera respuestas basadas en la probabilidad de salida de los tokens, y se determina durante el aprendizaje de los datos de capacitación. Si bien hemos hecho todo lo posible para excluir información personal, dañina y sesgada de los datos de capacitación, aún se puede incluir un contenido problemático, lo que puede conducir a respuestas indeseables. Tenga en cuenta que el texto generado por el modelo de lenguaje ExaOne no refleja las opiniones de la investigación de LG AI.
La investigación de LG AI se esfuerza por reducir los riesgos potenciales que pueden surgir del modelo de lenguaje ExaOne. Los usuarios no pueden participar en actividades maliciosas (por ejemplo, que se acumulan en información ilegal) que puede inducir la creación de resultados inapropiados que violan los principios éticos de LG AI al usar el modelo de lenguaje ExaOne.
El modelo tiene licencia bajo el acuerdo de licencia de modelo EXAOne AI 1.1 - NC
@article{exaone-3.0-7.8B-instruct,
title={EXAONE 3.0 7.8B Instruction Tuned Language Model},
author={LG AI Research},
journal={arXiv preprint arXiv:2408.03541},
year={2024}
}
Soporte técnico de investigación LG AI: [email protected]
Komt Bench es un conjunto de datos creado al traducir MT-Bench al coreano; Vea Readme para más detalles. ↩