Catatan: Ini adalah kerangka kerja pembangun model mainan llm sederhana untuk bermain di sekitar model LLM dan memahami prinsip -prinsip kerjanya
Ini bukan model LLM tetapi Anda dapat menempatkan data Anda dan melatihnya untuk membangun model LLM
Implementasi Eksperimental Arsitektur Model Bahasa (LLM) untuk Penelitian dan Pengembangan Arsitektur TI, Proses Desain Untuk Membangun, Pelatihan, dan Model Generatif Pretrain Transformers (GPT) yang efisien menyempurnakan
Untuk lebih banyak alat dan kerangka kerja terkait AI ke dalam proyek AI Open Source AI
GitHub Pull akan bersih jika ditemui dengan bug, silakan laporkan masalah
pip install git+https://github.com/Lokeshwaran-M/jam-gpt.gitJam-GPT == 0.0.4 mungkin tidak memiliki fine tuning karena masih sedang dikembangkan dan mungkin berisi bug, silakan laporkan masalah jika ada
pip install jam-gptDokumen dan test-gptlm.ipynb untuk contoh kode
from jam_gpt . tokenizer import Tokenizer
from jam_gpt import config
from jam_gpt import lm
from jam_gpt . model import Model
md_name = "md-name"
tok = Tokenizer ()
tok . get_encoding ( md_name )
# model initilization
model = Model ()
# load pretrined model
model . load_model ( md_name )
# Generate data using Model
pmt = tok . encode ( "user prompt" )
res = tok . decode ( model . generate ( pmt ))
print ( res )JAM-GPT Docs akan memberi Anda penggunaan lengkap dan penjelasan perpustakaan Jam-GPT
1 Pengaturan
2 mengumpulkan data
3 tokenisasi
4 Konfigurasi
5 Model Bahasa (LM, Model)
6 Model Fine Tuning
Untuk Pedoman Kontribusi dan Syarat dan Kondisi untuk berkontribusi Kontribusi Jam dengan Mengukur PR Anda menerima syarat dan ketentuan
Segala bentuk kontribusi diterima di sini
Submitting :
Issues
pull requests
feature requests
bug reports
documentation