jam gpt
1.0.0
注:LLMモデルを中心にプレイし、その作業原則を理解するためのシンプルなおもちゃLLMモデルビルダーフレームワーク
それはLLMモデルではありませんが、URデータを配置してLLMモデルを構築するためにトレーニングできます
ITアーキテクチャの研究開発のための言語モデル(LLM)アーキテクチャの実験、構築、トレーニング、および微調整効率的な生成前処理トランス(GPT)モデルの設計プロセス(GPT)モデル
より多くのAI関連のツールとフレームワークについては、OX-AIを検討してください。オープンソースAIプロジェクト
githubプルはバグで遭遇した場合にクリーンになります問題を報告してください
pip install git+https://github.com/Lokeshwaran-M/jam-gpt.gitjam-gpt == 0.0.4は、まだ開発中であるため、微調整がなく、バグが含まれている可能性がある場合は、問題を報告してください
pip install jam-gptコードの例については、refere docs and test-gptlm.ipynb
from jam_gpt . tokenizer import Tokenizer
from jam_gpt import config
from jam_gpt import lm
from jam_gpt . model import Model
md_name = "md-name"
tok = Tokenizer ()
tok . get_encoding ( md_name )
# model initilization
model = Model ()
# load pretrined model
model . load_model ( md_name )
# Generate data using Model
pmt = tok . encode ( "user prompt" )
res = tok . decode ( model . generate ( pmt ))
print ( res )JAM-GPTドキュメントは、JAM-GPTライブラリの完全な使用と説明を提供します
1セットアップ
2収集データ
3トークン化
4構成
5言語モデル(LM、モデル)
6モデルの微調整
拠出ガイドラインと条件については、PRをレイジングすることでレフェレジャムの矛盾を提供するための条件については、条件を受け入れている
ここでは、あらゆる形態の貢献が受け入れられます
Submitting :
Issues
pull requests
feature requests
bug reports
documentation