jam gpt
1.0.0
注意:它是一个简单的玩具LLM模型建造器框架,可围绕LLM型号播放并了解其工作原理
它不是LLM型号
语言模型(LLM)体系结构的实验实施,用于研究和开发IT架构,设计过程,构建,培训和微调有效的生成预审预周化的变压器(GPT)模型
有关更多与AI相关的工具和框架,请将OX-AI介绍开源AI项目
github拉动如果遇到错误,请报告问题
pip install git+https://github.com/Lokeshwaran-M/jam-gpt.gitjam-gpt == 0.0.4可能没有进行微调,因为它仍在开发中,并且可能包含错误,请报告问题
pip install jam-gpt裁判文档和test-gptlm.ipynb以获取代码示例
from jam_gpt . tokenizer import Tokenizer
from jam_gpt import config
from jam_gpt import lm
from jam_gpt . model import Model
md_name = "md-name"
tok = Tokenizer ()
tok . get_encoding ( md_name )
# model initilization
model = Model ()
# load pretrined model
model . load_model ( md_name )
# Generate data using Model
pmt = tok . encode ( "user prompt" )
res = tok . decode ( model . generate ( pmt ))
print ( res )jam-gpt文档将为您提供完整的使用和解释JAM-GPT库
1设置
2收集数据
3个令牌化
4个配置
5语言模型(LM,模型)
6模型微调
有关贡献指南和条款和条件,以供您接受条款和条件的PR来贡献批准果酱限制
这里接受任何形式的贡献
Submitting :
Issues
pull requests
feature requests
bug reports
documentation