ภาษาพม่าที่ใช้งานได้ครั้งแรกและใหญ่ที่สุดในพม่า

Myanmargpt เป็นภาษาพม่า ที่ใช้งานได้ ครั้งแรกและใหญ่ที่สุดในพม่าในพม่าที่มีการบริจาคชุมชนที่แข็งแกร่ง มันถูกสร้างขึ้นโดยฉัน Min Si Thu
ทั้งสองรุ่นนี้ได้รับการฝึกฝนโดยใช้ชุดข้อมูลทรัพย์สินส่วนตัวทำความสะอาดด้วยตนเองโดย Min Si Thu
มีสองเวอร์ชันของพม่าในขณะนี้ในปี 2023 ธันวาคม
ขยายออกวางจำหน่ายในปี 2024, 28 มกราคม
เปิดตัวในปี 2567 วันที่ 23 กุมภาพันธ์
พม่าเป็นรูปแบบภาษาพารามิเตอร์ 128 ล้านพารามิเตอร์ มันมีน้ำหนักเบามากและใช้งานง่ายกับอุปกรณ์ทั้งหมด
Myanmargpt-Big เป็นโมเดลหลายภาษาพารามิเตอร์ 1.42 พันล้าน มันเป็น LLM ระดับองค์กรสำหรับภาษาพม่าเป็นหลักและภาษาอื่น ๆ ปัจจุบันรองรับ 61 ภาษา
ปรับแต่งอย่างละเอียดเกี่ยวกับพม่ารูปแบบการตอบคำถามสำหรับภาษาพม่า ด้วยความรู้เกี่ยวกับ "ประวัติย่อของโลก"
วิธีใช้ - การสอนเกี่ยวกับการสร้าง Myanmargpt -Chat บนเครื่องท้องถิ่น
ปรับแต่งอย่างละเอียดเกี่ยวกับ Myanmargpt-Chat รูปแบบการตอบคำถามสำหรับภาษาพม่า รุ่นที่เร็วขึ้นน้ำหนักเบาและมีหลายรูปแบบ
ติดตั้ง Hugging Face Transformer
pip install transformers # Using Pipeline
from transformers import pipeline
pipe = pipeline ( "text-generation" , model = "jojo-ai-mst/MyanmarGPT" )
outputs = pipe ( "အီတလီ" , do_sample = False )
print ( outputs ) # Using AutoTokenizer and CausalLM
import torch
from transformers import AutoTokenizer , AutoModelForCausalLM
tokenizer = AutoTokenizer . from_pretrained ( "jojo-ai-mst/MyanmarGPT" )
model = AutoModelForCausalLM . from_pretrained ( "jojo-ai-mst/MyanmarGPT" )
input_ids = tokenizer . encode ( "ချစ်သား" , return_tensors = 'pt' )
output = model . generate ( input_ids , max_length = 50 )
print ( tokenizer . decode ( output [ 0 ], skip_special_tokens = True )) # Using Pipeline
from transformers import pipeline
pipe = pipeline ( "text-generation" , model = "jojo-ai-mst/MyanmarGPT-Big" )
outputs = pipe ( "အီတလီ" , do_sample = False )
print ( outputs ) # Using AutoTokenizer and CausalLM
import torch
from transformers import AutoTokenizer , AutoModelForCausalLM
tokenizer = AutoTokenizer . from_pretrained ( "jojo-ai-mst/MyanmarGPT-Big" )
model = AutoModelForCausalLM . from_pretrained ( "jojo-ai-mst/MyanmarGPT-Big" )
input_ids = tokenizer . encode ( "ချစ်သား" , return_tensors = 'pt' )
output = model . generate ( input_ids , max_length = 50 )
print ( tokenizer . decode ( output [ 0 ], skip_special_tokens = True ))[<iframe width = "898" ความสูง = "505" src = "https://www.youtube.com/embed/rujwqjwmrlm" title = "แชท gpt (ai) ကိုသုံးစွဲနိုင်တော့မလားသုံးစွဲနိုင်တော့မလားသုံးစွဲနိုင်တော့မလားသုံးစွဲနိုင်တော့မလားသုံးစွဲနိုင်တော့မလား; Gyroscope;