MyanmarGPT
1.0.0
缅甸的最初和最大的可用缅甸语言GPT

Myanmargpt是缅甸最大的最大可用缅甸语言,具有强大的社区贡献。它是由我创建的,Min si thu。
这两个模型通过使用Min Si Thu手动清洁的私有财产数据集进行了培训。
目前,2023年12月有两个版本的缅甸。
扩展,于2024年1月28日发行。
2024年2月23日发行。
Myanmargpt是1.28亿参数缅甸语言模型。在所有设备上都非常轻巧且易于使用。
Myanmargpt-big是14.2亿个参数多语言模型。它是缅甸语言和其他语言的企业级别LLM。目前支持61种语言。
在缅甸,对缅甸语言的问题回答模型进行了微调。随着“世界短暂历史”的了解
如何使用 - 在本地机器上构建缅甸茶的教程
在缅甸聊天中进行了微调,对缅甸语言的问答模型进行了微调。更快,轻巧和多平台可用模型。
安装拥抱面孔变压器
pip install transformers # Using Pipeline
from transformers import pipeline
pipe = pipeline ( "text-generation" , model = "jojo-ai-mst/MyanmarGPT" )
outputs = pipe ( "အီတလီ" , do_sample = False )
print ( outputs ) # Using AutoTokenizer and CausalLM
import torch
from transformers import AutoTokenizer , AutoModelForCausalLM
tokenizer = AutoTokenizer . from_pretrained ( "jojo-ai-mst/MyanmarGPT" )
model = AutoModelForCausalLM . from_pretrained ( "jojo-ai-mst/MyanmarGPT" )
input_ids = tokenizer . encode ( "ချစ်သား" , return_tensors = 'pt' )
output = model . generate ( input_ids , max_length = 50 )
print ( tokenizer . decode ( output [ 0 ], skip_special_tokens = True )) # Using Pipeline
from transformers import pipeline
pipe = pipeline ( "text-generation" , model = "jojo-ai-mst/MyanmarGPT-Big" )
outputs = pipe ( "အီတလီ" , do_sample = False )
print ( outputs ) # Using AutoTokenizer and CausalLM
import torch
from transformers import AutoTokenizer , AutoModelForCausalLM
tokenizer = AutoTokenizer . from_pretrained ( "jojo-ai-mst/MyanmarGPT-Big" )
model = AutoModelForCausalLM . from_pretrained ( "jojo-ai-mst/MyanmarGPT-Big" )
input_ids = tokenizer . encode ( "ချစ်သား" , return_tensors = 'pt' )
output = model . generate ( input_ids , max_length = 50 )
print ( tokenizer . decode ( output [ 0 ], skip_special_tokens = True ))[<iframe width =“ 898” height =“ 505” src =“ https://www.youtube.com/embed/rujwqjwmrlm” title =“ chat gpt gpt(ai)ကိုကိုကိုမြန်မာလိုမြန်မာလို-dvb青年语音” frief =“ 0”允许=“ apceleremeter; autopsele; clipaist; cliparde;图片中的图片;