หมายเหตุ: มันเป็นกรอบการสร้างแบบจำลอง LLM Toy LLM ที่เรียบง่ายในการเล่นรอบ ๆ รุ่น LLM และเข้าใจหลักการทำงานของมัน
ไม่ใช่รุ่น LLM แต่คุณสามารถใส่ข้อมูลของคุณและฝึกอบรมเพื่อสร้างรุ่น LLM
การใช้งานเชิงทดลองของ รูปแบบภาษา (LLM) สถาปัตยกรรมสำหรับการวิจัยและพัฒนาสถาปัตยกรรมไอทีกระบวนการออกแบบเพื่อสร้างการฝึกอบรมและการปรับแต่ง Transformers Pretraned Transformers (GPT) ที่มีประสิทธิภาพ
สำหรับเครื่องมือและกรอบการทำงานที่เกี่ยวข้องกับ AI เพิ่มเติมในโครงการ Ox-ai เป็นโครงการ AI โอเพนซอร์ส AI
GitHub Pull จะสะอาดหากพบกับข้อบกพร่องโปรดรายงานปัญหา
pip install git+https://github.com/Lokeshwaran-M/jam-gpt.gitJAM-GPT == 0.0.4 อาจไม่มีการปรับแต่งอย่างดีเนื่องจากยังอยู่ระหว่างการพัฒนาและอาจมีข้อผิดพลาดโปรดรายงานปัญหาหากมี
pip install jam-gptrefere เอกสารและ test-gptlm.ipynb สำหรับตัวอย่างรหัส
from jam_gpt . tokenizer import Tokenizer
from jam_gpt import config
from jam_gpt import lm
from jam_gpt . model import Model
md_name = "md-name"
tok = Tokenizer ()
tok . get_encoding ( md_name )
# model initilization
model = Model ()
# load pretrined model
model . load_model ( md_name )
# Generate data using Model
pmt = tok . encode ( "user prompt" )
res = tok . decode ( model . generate ( pmt ))
print ( res )เอกสาร JAM-GPT จะให้การใช้งานและคำอธิบายที่สมบูรณ์ของห้องสมุด JAM-GPT
1 การตั้งค่า
2 รวบรวมข้อมูล
3 โทเค็น
4 การกำหนดค่า
5 รูปแบบภาษา (LM, โมเดล)
6 รุ่นปรับแต่ง
สำหรับแนวทางการบริจาคและข้อกำหนดและเงื่อนไขในการมีส่วนร่วมในการจัดสรรการสนับสนุนโดยผู้ตัดสินโดยการกำหนดค่า PR คุณกำลังยอมรับข้อกำหนดและเงื่อนไข
รูปแบบการบริจาคใด ๆ ได้รับการยอมรับที่นี่
Submitting :
Issues
pull requests
feature requests
bug reports
documentation