HINWEIS: Es ist ein einfaches Spielzeug -LLM -Model Builder -Framework, um LLM -Modelle zu spielen und seine Arbeitsprinzipien zu verstehen
Es ist kein LLM -Modell, aber Sie können Ihre Daten einfügen und es trainieren, um LLM -Modelle zu erstellen
Eine experimentelle Implementierung von Sprachmodell-Architektur (LLM) für die Forschung und Entwicklung von IT-Architekturen, Designprozess zum Aufbau, Training und Feinabstimmung effiziente , generative vorbereitete Transformers (GPT) -Modelle
Weitere KI-verwandte Werkzeuge und Framework finden Sie im Open-Source- KI
Github Pull wird sauber sein, wenn er mit Fehlern angetroffen wird. Bitte melden Sie Probleme
pip install git+https://github.com/Lokeshwaran-M/jam-gpt.gitJAM-GPT == 0.0.4 hat möglicherweise keine Feinabstimmung, da es noch in der Entwicklung ist und Fehler enthalten. Bitte melden Sie Probleme, falls vorhanden
pip install jam-gptSchiedsrichter-Dokumente und Test-gptlm.ipynb für Codebeispiele
from jam_gpt . tokenizer import Tokenizer
from jam_gpt import config
from jam_gpt import lm
from jam_gpt . model import Model
md_name = "md-name"
tok = Tokenizer ()
tok . get_encoding ( md_name )
# model initilization
model = Model ()
# load pretrined model
model . load_model ( md_name )
# Generate data using Model
pmt = tok . encode ( "user prompt" )
res = tok . decode ( model . generate ( pmt ))
print ( res )Jam-GPT-Dokumente geben Ihnen die vollständige Verwendung und Erklärung der Jam-GPT-Bibliothek
1 Setup
2 Daten sammeln
3 Tokenisierung
4 Konfiguration
5 Sprachmodell (LM, Modell)
6 Modell Feinabstimmung
Um die Richtlinien und Bedingungen für die Beitragszunahme zu leisten, um die Schiedsrichter-Stau-Kontribution durch den PR zu beitragen, akzeptieren Sie die Begriffe und den Zustand
Jede Form des Beitrags wird hier akzeptiert
Submitting :
Issues
pull requests
feature requests
bug reports
documentation