jam gpt
1.0.0
참고 : LLM 모델을 중심으로 플레이하고 작동 원리를 이해하는 간단한 Toy LLM 모델 빌더 프레임 워크입니다.
LLM 모델은 아니지만 데이터를 넣고 LLM 모델을 구축하도록 교육 할 수 있습니다.
IT 아키텍처의 연구 및 개발을위한 LLM (Language Model) 아키텍처의 실험적 구현, 구축, 교육 및 미세 조정 효율적인 생성 프리 트 변압기 (GPT) 모델
더 많은 AI 관련 도구 및 프레임 워크를 보려면 OX-AI 를 살펴보십시오. 오픈 소스 AI 프로젝트
버그와 함께 발생하면 Github Pull이 깨끗해집니다.
pip install git+https://github.com/Lokeshwaran-M/jam-gpt.gitJam-GPT == 0.0.4는 아직 개발중인 미세 조정이 없을 수 있으며 버그가 포함될 수 있습니다.
pip install jam-gpt코드 예제에 대한 문서 및 Test-GPTLM.IPYNB를 참조하십시오
from jam_gpt . tokenizer import Tokenizer
from jam_gpt import config
from jam_gpt import lm
from jam_gpt . model import Model
md_name = "md-name"
tok = Tokenizer ()
tok . get_encoding ( md_name )
# model initilization
model = Model ()
# load pretrined model
model . load_model ( md_name )
# Generate data using Model
pmt = tok . encode ( "user prompt" )
res = tok . decode ( model . generate ( pmt ))
print ( res )JAM-GPT 문서는 JAM-GPT 라이브러리의 완전한 사용 및 설명을 제공합니다.
1 설정
2 데이터 수집
3 토큰 화
4 구성
5 언어 모델 (LM, 모델)
6 모델 미세 튜닝
기부금 가이드 라인 및 약관 및 조건은 PR을 rasing함으로써 심판 잼 조정에 기여하기위한 이용 약관을 수락합니다.
모든 형태의 기여도는 여기에 수용됩니다
Submitting :
Issues
pull requests
feature requests
bug reports
documentation