Nota: es un marco de generador de modelos simple de Toy LLM para jugar con los modelos LLM y comprender sus principios de trabajo
No es un modelo LLM, pero puede poner sus datos y entrenarlos para construir modelos LLM
Una arquitectura de implementación experimental de Language Model (LLM) para la investigación y el desarrollo de las arquitecturas de TI, el proceso de diseño para construir, capacitar y ajustar modelos de transformadores prenederos generativos (GPT) eficientes (GPT)
Para obtener más herramientas y marco relacionados con la IA, busque en un proyecto de IA de código abierto de OX-AI
Github Pull estará limpio si se encuentra con errores, informe los problemas
pip install git+https://github.com/Lokeshwaran-M/jam-gpt.gitJam-GPT == 0.0.4 puede no tener un ajuste fino, ya que todavía está en desarrollo y puede contener error, por favor informes los problemas de si hay alguno
pip install jam-gptDocumentos de referencia y prueba-gptlm.ipynb para ejemplos de código
from jam_gpt . tokenizer import Tokenizer
from jam_gpt import config
from jam_gpt import lm
from jam_gpt . model import Model
md_name = "md-name"
tok = Tokenizer ()
tok . get_encoding ( md_name )
# model initilization
model = Model ()
# load pretrined model
model . load_model ( md_name )
# Generate data using Model
pmt = tok . encode ( "user prompt" )
res = tok . decode ( model . generate ( pmt ))
print ( res )Jam-GPT Docs le dará el uso completo y la explicación de la biblioteca JAM-GPT
1 configuración
2 recopilar datos
3 Tokenización
4 Configuración
5 Modelo de lenguaje (LM, Modelo)
6 Modelo de ajuste fino
Para las pautas de contribución y los términos y la condición para contribuir con la confonidad de la mermelada de la referencia al rasgar el PR, está aceptando los términos y condición
Cualquier forma de contribución se acepta aquí
Submitting :
Issues
pull requests
feature requests
bug reports
documentation