jam gpt
1.0.0
注意:它是一個簡單的玩具LLM模型建造器框架,可圍繞LLM型號播放並了解其工作原理
它不是LLM型號
語言模型(LLM)體系結構的實驗實施,用於研究和開發IT架構,設計過程,構建,培訓和微調有效的生成預審預週化的變壓器(GPT)模型
有關更多與AI相關的工具和框架,請將OX-AI介紹開源AI項目
github拉動如果遇到錯誤,請報告問題
pip install git+https://github.com/Lokeshwaran-M/jam-gpt.gitjam-gpt == 0.0.4可能沒有進行微調,因為它仍在開發中,並且可能包含錯誤,請報告問題
pip install jam-gpt裁判文檔和test-gptlm.ipynb以獲取代碼示例
from jam_gpt . tokenizer import Tokenizer
from jam_gpt import config
from jam_gpt import lm
from jam_gpt . model import Model
md_name = "md-name"
tok = Tokenizer ()
tok . get_encoding ( md_name )
# model initilization
model = Model ()
# load pretrined model
model . load_model ( md_name )
# Generate data using Model
pmt = tok . encode ( "user prompt" )
res = tok . decode ( model . generate ( pmt ))
print ( res )jam-gpt文檔將為您提供完整的使用和解釋JAM-GPT庫
1設置
2收集數據
3個令牌化
4個配置
5語言模型(LM,模型)
6模型微調
有關貢獻指南和條款和條件,以供您接受條款和條件的PR來貢獻批准果醬限制
這裡接受任何形式的貢獻
Submitting :
Issues
pull requests
feature requests
bug reports
documentation