O primeiro e maior idioma birmaneses utilizável GPT em Mianmar

Myanmargpt é o primeiro e maior idioma birmaneses utilizável GPT em Mianmar, com fortes contribuições da comunidade. Foi criado por mim, Min Si Thu.
Esses dois modelos são treinados usando conjuntos de dados de propriedades privadas, limpadas manualmente por Min Si Thu.
Existem duas versões de Mianmargpt no momento, 2023 de dezembro.
Estendido, lançado em 2024, 28 de janeiro.
Lançado em 2024, 23 de fevereiro.
Myanmargpt é 128 milhões de parâmetros do modelo de linguagem birmanesa. É muito leve e fácil de usar em todos os dispositivos.
O MyanMargpt-Big é um modelo de 1,42 bilhão de parâmetros. É um LLM de nível empresarial para a linguagem birmanesa, principalmente e outros idiomas. Atualmente suporta 61 idiomas.
Ajustado em Mianmargpt, modelo de resposta a perguntas para a língua birmanesa. Com o conhecimento de "uma breve história do mundo"
Como usar - Tutorial sobre a construção de MyanMargpt -Chat na máquina local
Ajustado no MyanMargpt-Chat, modelo de resposta a perguntas para o idioma birmaneses. Modelo disponível mais rápido, leve e multiplataforma.
Instale o Hugging Face Transformer
pip install transformers # Using Pipeline
from transformers import pipeline
pipe = pipeline ( "text-generation" , model = "jojo-ai-mst/MyanmarGPT" )
outputs = pipe ( "အီတလီ" , do_sample = False )
print ( outputs ) # Using AutoTokenizer and CausalLM
import torch
from transformers import AutoTokenizer , AutoModelForCausalLM
tokenizer = AutoTokenizer . from_pretrained ( "jojo-ai-mst/MyanmarGPT" )
model = AutoModelForCausalLM . from_pretrained ( "jojo-ai-mst/MyanmarGPT" )
input_ids = tokenizer . encode ( "ချစ်သား" , return_tensors = 'pt' )
output = model . generate ( input_ids , max_length = 50 )
print ( tokenizer . decode ( output [ 0 ], skip_special_tokens = True )) # Using Pipeline
from transformers import pipeline
pipe = pipeline ( "text-generation" , model = "jojo-ai-mst/MyanmarGPT-Big" )
outputs = pipe ( "အီတလီ" , do_sample = False )
print ( outputs ) # Using AutoTokenizer and CausalLM
import torch
from transformers import AutoTokenizer , AutoModelForCausalLM
tokenizer = AutoTokenizer . from_pretrained ( "jojo-ai-mst/MyanmarGPT-Big" )
model = AutoModelForCausalLM . from_pretrained ( "jojo-ai-mst/MyanmarGPT-Big" )
input_ids = tokenizer . encode ( "ချစ်သား" , return_tensors = 'pt' )
output = model . generate ( input_ids , max_length = 50 )
print ( tokenizer . decode ( output [ 0 ], skip_special_tokens = True ))[<iframe width = "898" Height = "505" src = "https://www.youtube.com/embed/rujwqjwmrlm" title = "chat gpt (ai) ကို သုံးစွဲနိုင်တော့မလား သုံးစွဲနိုင်တော့မလား-dvb jovens voz" frameborder = "0" = "" shopTerômetro; Imagem-in-Picture;