Collection de modèles d'invite de base pour divers LLMS de chat | Collection de modèles de base de Chat LLM
Motivation : Le modèle d'invite de base affectera considérablement l'efficacité de l'enseignement suivant. Des modèles d'architectures différentes peuvent utiliser différents modèles rapides pendant la formation. Cependant, à l'heure actuelle, ces modèles peuvent être difficiles à localiser; Parfois, ils sont intégrés dans des exemples de codes, cachés dans les problèmes de github, ou parfois trouvés dans les blogs officiels ...
Motivation : Le modèle d'invite de base affectera considérablement l'effet de l'instruction suivante. Des modèles d'architectures différentes peuvent utiliser différents modèles d'indices lors de la formation. Cependant, ces modèles sont souvent difficiles à trouver pour le moment; Parfois, ils sont intégrés dans un exemple de code, parfois cachés dans des problèmes de github, et parfois trouvés dans les blogs officiels ...
Note
Le langage de balisage de chat est le courant dominant, par exemple. TRANSFORME DE LA CHASSEUR, Tiktoken d'Openai.
Le langage de balisage de chat est un format grand public tel que les transformateurs de Huggingface, TikToken d'Openai.
(Ordre alphabétique de l'architecture)
(Trié par Ordre du dictionnaire des noms de schéma)
template = """<reserved_195>{query}<reserved_196>""" template = """<|system|>
You are ChatGLM3, a large language model trained by Zhipu.AI. Follow the user's instructions carefully. Respond using markdown.
<|user|>
{query}
<|assistant|>
""" template = """<bos><start_of_turn>user
{query}<end_of_turn>
<start_of_turn>model""" template = """<|im_start|>system
You are a helpful assistant.<|im_end|>
<|im_start|>user
{query}<|im_end|>
<|im_start|>assistant
""" template = """<s>[INST] <<SYS>>
You are a helpful, respectful and honest assistant.
<</SYS>> {query} [/INST] Sure, I'd be happy to help. Here is the answer:"""Sure, I'd be happy to help. Here is the answer: évite les sorties du modèle verbeux. template = """Instruct: {query} n Output:"""
# or template = """Alice: {query}nBob:""" template = """<|im_start|>system
You are a helpful assistant.<|im_end|>
<|im_start|>user
{query}<|im_end|>
<|im_start|>assistant
"""<|im_end|> ou <|endoftext|> , vous pouvez supprimer des textes après eux ou utiliser le paramètre stop comme: # Using vLLM interface
payload = json . dumps ({
"prompt" : query ,
"n" : 1 ,
"stop" : [ "<|endoftext|>" , "<|im_end|>" ],
}) template = """<|im_start|>system
{system_message}<|im_end|>
<|im_start|>user
{prompt}<|im_end|>
<|im_start|>assistant""" template = """<|begin_of_text|><|start_header_id|>system<|end_header_id|>
You are a helpful AI assistant.<|eot_id|><|start_header_id|>user<|end_header_id|>
{query}<|eot_id|><|start_header_id|>assistant<|end_header_id|>
""" template =