Remarque: c'est un cadre de création de modèles LLM simple pour jouer autour des modèles LLM et comprendre ses principes de travail
Ce n'est pas un modèle LLM, mais vous pouvez mettre vos données et la former à construire des modèles LLM
Une mise en œuvre expérimentale de l'architecture du modèle de langue (LLM) pour la recherche et le développement d'architectures informatiques, le processus de conception à construire, à la formation et à affiner les modèles efficaces de transformateurs pré-étendus (GPT)
Pour plus d'outils et de cadre liés à l'IA, envisagez-vous sur Ox-AI un projet d'IA open source
GitHub Pull sera propre s'il est rencontré avec des bogues, veuillez signaler les problèmes
pip install git+https://github.com/Lokeshwaran-M/jam-gpt.gitjam-gpt == 0.0,4 peut ne pas avoir de réglage fin car il est toujours en cours de développement et peut contenir un bug, veuillez signaler les problèmes
pip install jam-gptArbitre les documents et test-gptlm.ipynb pour des exemples de code
from jam_gpt . tokenizer import Tokenizer
from jam_gpt import config
from jam_gpt import lm
from jam_gpt . model import Model
md_name = "md-name"
tok = Tokenizer ()
tok . get_encoding ( md_name )
# model initilization
model = Model ()
# load pretrined model
model . load_model ( md_name )
# Generate data using Model
pmt = tok . encode ( "user prompt" )
res = tok . decode ( model . generate ( pmt ))
print ( res )Jam-GPT Docs vous donnera l'inutilisation complète et l'explication de la bibliothèque Jam-GPT
1 configuration
2 Collecte de données
3 tokenisation
4 Configuration
5 Modèle de langue (LM, modèle)
6 réglage fin du modèle
Pour les directives et les termes et conditions de contribution pour contribuer à l'arbitre de la Contribution de la JAM en faisant l'objet de relations publiques que vous acceptez les termes et conditions
Toute forme de contribution est acceptée ici
Submitting :
Issues
pull requests
feature requests
bug reports
documentation