MyanmarGPT
1.0.0
緬甸的最初和最大的可用緬甸語言GPT

Myanmargpt是緬甸最大的最大可用緬甸語言,具有強大的社區貢獻。它是由我創建的,Min si thu。
這兩個模型通過使用Min Si Thu手動清潔的私有財產數據集進行了培訓。
目前,2023年12月有兩個版本的緬甸。
擴展,於2024年1月28日發行。
2024年2月23日發行。
Myanmargpt是1.28億參數緬甸語言模型。在所有設備上都非常輕巧且易於使用。
Myanmargpt-big是14.2億個參數多語言模型。它是緬甸語言和其他語言的企業級別LLM。目前支持61種語言。
在緬甸,對緬甸語言的問題回答模型進行了微調。隨著“世界短暫歷史”的了解
如何使用 - 在本地機器上構建緬甸茶的教程
在緬甸聊天中進行了微調,對緬甸語言的問答模型進行了微調。更快,輕巧和多平台可用模型。
安裝擁抱面孔變壓器
pip install transformers # Using Pipeline
from transformers import pipeline
pipe = pipeline ( "text-generation" , model = "jojo-ai-mst/MyanmarGPT" )
outputs = pipe ( "အီတလီ" , do_sample = False )
print ( outputs ) # Using AutoTokenizer and CausalLM
import torch
from transformers import AutoTokenizer , AutoModelForCausalLM
tokenizer = AutoTokenizer . from_pretrained ( "jojo-ai-mst/MyanmarGPT" )
model = AutoModelForCausalLM . from_pretrained ( "jojo-ai-mst/MyanmarGPT" )
input_ids = tokenizer . encode ( "ချစ်သား" , return_tensors = 'pt' )
output = model . generate ( input_ids , max_length = 50 )
print ( tokenizer . decode ( output [ 0 ], skip_special_tokens = True )) # Using Pipeline
from transformers import pipeline
pipe = pipeline ( "text-generation" , model = "jojo-ai-mst/MyanmarGPT-Big" )
outputs = pipe ( "အီတလီ" , do_sample = False )
print ( outputs ) # Using AutoTokenizer and CausalLM
import torch
from transformers import AutoTokenizer , AutoModelForCausalLM
tokenizer = AutoTokenizer . from_pretrained ( "jojo-ai-mst/MyanmarGPT-Big" )
model = AutoModelForCausalLM . from_pretrained ( "jojo-ai-mst/MyanmarGPT-Big" )
input_ids = tokenizer . encode ( "ချစ်သား" , return_tensors = 'pt' )
output = model . generate ( input_ids , max_length = 50 )
print ( tokenizer . decode ( output [ 0 ], skip_special_tokens = True ))[<iframe width =“ 898”高度=“ 505” src =“ https://www.youtube.com/embed/rujwqjwmrlm” title =“ chat gpt gpt(ai)ကိုကိုကိုမြန်မာလို-dvb青年語音” frame =“ 0”允許=“ Acceleremeter; -share“ allowfullscreen> </iframe>](https://youtu.be/rujwqjwmrlm)