GPT Bahasa Burma pertama dan terbesar yang dapat digunakan di Myanmar

Myanmargpt adalah GPT bahasa Burma pertama dan terbesar yang dapat digunakan di Myanmar dengan kontribusi komunitas yang kuat. Itu dibuat oleh saya, Min Si Thu.
Kedua model ini dilatih dengan menggunakan set data properti pribadi, dibersihkan secara manual oleh Min Si Thu.
Ada dua versi Myanmargpt saat ini, 2023 Desember.
Diperpanjang, dirilis pada tahun 2024, 28 Januari.
Dirilis pada tahun 2024, 23 Februari.
MyanMargpt adalah 128 juta parameter model bahasa Burma. Ini sangat ringan dan mudah digunakan di semua perangkat.
Myanmargpt-Big adalah model multi-bahasa parameter 1,42 miliar. Ini adalah LLM tingkat perusahaan untuk bahasa Burma terutama dan bahasa lainnya. Saat ini mendukung 61 bahasa.
Disetel di Myanmargpt, model menjawab pertanyaan untuk bahasa Burma. Dengan pengetahuan tentang "Sejarah Singkat Dunia"
Cara menggunakan - Tutorial tentang Membangun Myanmargpt -Chat di Mesin Lokal
Disetel di Myanmargpt-Chat, model menjawab pertanyaan untuk bahasa Burma. Model yang lebih cepat, ringan dan multiplatform yang tersedia.
Pasang Transformator Wajah Memeluk
pip install transformers # Using Pipeline
from transformers import pipeline
pipe = pipeline ( "text-generation" , model = "jojo-ai-mst/MyanmarGPT" )
outputs = pipe ( "အီတလီ" , do_sample = False )
print ( outputs ) # Using AutoTokenizer and CausalLM
import torch
from transformers import AutoTokenizer , AutoModelForCausalLM
tokenizer = AutoTokenizer . from_pretrained ( "jojo-ai-mst/MyanmarGPT" )
model = AutoModelForCausalLM . from_pretrained ( "jojo-ai-mst/MyanmarGPT" )
input_ids = tokenizer . encode ( "ချစ်သား" , return_tensors = 'pt' )
output = model . generate ( input_ids , max_length = 50 )
print ( tokenizer . decode ( output [ 0 ], skip_special_tokens = True )) # Using Pipeline
from transformers import pipeline
pipe = pipeline ( "text-generation" , model = "jojo-ai-mst/MyanmarGPT-Big" )
outputs = pipe ( "အီတလီ" , do_sample = False )
print ( outputs ) # Using AutoTokenizer and CausalLM
import torch
from transformers import AutoTokenizer , AutoModelForCausalLM
tokenizer = AutoTokenizer . from_pretrained ( "jojo-ai-mst/MyanmarGPT-Big" )
model = AutoModelForCausalLM . from_pretrained ( "jojo-ai-mst/MyanmarGPT-Big" )
input_ids = tokenizer . encode ( "ချစ်သား" , return_tensors = 'pt' )
output = model . generate ( input_ids , max_length = 50 )
print ( tokenizer . decode ( output [ 0 ], skip_special_tokens = True ))[<iframe width="898" height="505" src="https://www.youtube.com/embed/RujWqJwmrLM" title="Chat GPT (AI) ကို မြန်မာလို သုံးစွဲနိုင်တော့မလား - DVB Youth Voice" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; Picture-in-Picture;