Nota: é uma estrutura simples de fabricante de modelos de brinquedos LLM para brincar com os modelos LLM e entender seus princípios de funcionamento
Não é um modelo LLM, mas você pode colocar seus dados e treiná -los para criar modelos LLM
Uma implementação experimental da arquitetura do Modelo de Linguagem (LLM) para pesquisa e desenvolvimento de arquiteturas de TI, processo de design para construir, treinamento e modelos de transformadores pré-treinados (GPT) eficientes e eficientes de ajuste fino (GPT)
Para mais ferramentas e estrutura relacionadas à IA, procure o OX-AI e um projeto de IA de código aberto
O github Pull será limpo se encontrado com bugs, por favor relate problemas
pip install git+https://github.com/Lokeshwaran-M/jam-gpt.gitjam-gpt == 0.0.4 pode não ter ajuste fino, pois ainda está em desenvolvimento e pode conter bug, por favor relate problemas, se houver
pip install jam-gptDoces de árbitros e test-gptlm.ipynb para exemplos de código
from jam_gpt . tokenizer import Tokenizer
from jam_gpt import config
from jam_gpt import lm
from jam_gpt . model import Model
md_name = "md-name"
tok = Tokenizer ()
tok . get_encoding ( md_name )
# model initilization
model = Model ()
# load pretrined model
model . load_model ( md_name )
# Generate data using Model
pmt = tok . encode ( "user prompt" )
res = tok . decode ( model . generate ( pmt ))
print ( res )Os documentos JAM-GPT lhe darão o uso completo e a explicação da biblioteca Jam-Gpt
1 configuração
2 dados de coleta
3 tokenização
4 Configuração
5 Modelo de idioma (LM, modelo)
6 Modelo Tuning Fine
Para diretrizes de contribuição e termos e condição para contribuir com a contribuição de jam de árbitros, arrasando o PR, você está aceitando os termos e condição
Qualquer forma de contribuição é aceita aqui
Submitting :
Issues
pull requests
feature requests
bug reports
documentation