أول وأكبر لغة بورمية قابلة للاستخدام في ميانمار

Myanmargpt هي أول وأكبر لغة بورمية قابلة للاستخدام في ميانمار مع مساهمات مجتمعية قوية. تم إنشاؤه من قبلي ، مين سي ثو.
يتم تدريب هذين النموذجين باستخدام مجموعات بيانات الخصائص الخاصة ، تم تنظيفها يدويًا بواسطة Min Si Thu.
هناك نسختان من Myanmargpt في الوقت الحالي ، 2023 ديسمبر.
امتدت ، صدر في عام 2024 ، 28 يناير.
صدر في عام 2024 ، 23 فبراير.
Myanmargpt هو 128 مليون نموذج لغة البورمية. إنه خفيف الوزن للغاية وسهل الاستخدام على جميع الأجهزة.
Myanmargpt-Big هو نموذج متعدد اللغات 1.42 مليار. إنه LLM على مستوى المؤسسة للغة البورمية بشكل رئيسي ولغات أخرى. يدعم حاليا 61 لغة.
تم ضبطها على Myanmargpt ، نموذج الإجابة على أسئلة للغة البورمية. مع معرفة "تاريخ موجز للعالم"
كيفية الاستخدام - البرنامج التعليمي حول بناء myanmargpt -chat على الآلة المحلية
تم ضبطه على Myanmargpt-Chat ، نموذج الإجابة على الأسئلة للغة البورمية. أسرع وخفيف الوزن ومتعدد النموذج المتاح.
تثبيت محول الوجه المعانقة
pip install transformers # Using Pipeline
from transformers import pipeline
pipe = pipeline ( "text-generation" , model = "jojo-ai-mst/MyanmarGPT" )
outputs = pipe ( "အီတလီ" , do_sample = False )
print ( outputs ) # Using AutoTokenizer and CausalLM
import torch
from transformers import AutoTokenizer , AutoModelForCausalLM
tokenizer = AutoTokenizer . from_pretrained ( "jojo-ai-mst/MyanmarGPT" )
model = AutoModelForCausalLM . from_pretrained ( "jojo-ai-mst/MyanmarGPT" )
input_ids = tokenizer . encode ( "ချစ်သား" , return_tensors = 'pt' )
output = model . generate ( input_ids , max_length = 50 )
print ( tokenizer . decode ( output [ 0 ], skip_special_tokens = True )) # Using Pipeline
from transformers import pipeline
pipe = pipeline ( "text-generation" , model = "jojo-ai-mst/MyanmarGPT-Big" )
outputs = pipe ( "အီတလီ" , do_sample = False )
print ( outputs ) # Using AutoTokenizer and CausalLM
import torch
from transformers import AutoTokenizer , AutoModelForCausalLM
tokenizer = AutoTokenizer . from_pretrained ( "jojo-ai-mst/MyanmarGPT-Big" )
model = AutoModelForCausalLM . from_pretrained ( "jojo-ai-mst/MyanmarGPT-Big" )
input_ids = tokenizer . encode ( "ချစ်သား" , return_tensors = 'pt' )
output = model . generate ( input_ids , max_length = 50 )
print ( tokenizer . decode ( output [ 0 ], skip_special_tokens = True ))[<iframe width = "898" height = "505" src = "https://www.youtube.com/embed/rujwqjwmrlm" title = "chat gpt (ai) ကို မြန်မာလို သုံးစွဲနိုင်တော့မလား-dvb voice" framberborder = "0 صورة في الصورة ؛