El primer y más grande idioma birmano usable GPT en Myanmar

Myanmargpt es el primer y más grande idioma birmano utilizable GPT en Myanmar con fuertes contribuciones comunitarias. Fue creado por mí, Min Si Thu.
Estos dos modelos se capacitan mediante el uso de conjuntos de datos de propiedades privadas, limpiados manualmente por Min SI Thu.
Hay dos versiones de Myanmargpt en este momento, 2023 de diciembre.
Extendido, lanzado en 2024, 28 de enero.
Lanzado en 2024, 23 de febrero.
Myanmargpt es 128 millones de parámetros Modelo de lenguaje birmano. Es muy liviano y fácil de usar en todos los dispositivos.
MyanMargpt-Big es un modelo de 142 mil millones de parámetros de varios idiomas. Es un LLM de nivel empresarial para el idioma birmano principalmente y otros idiomas. Actualmente admite 61 idiomas.
Afinitado en Myanmargpt, el modelo de respuesta de preguntas para el idioma birmano. Con el conocimiento de "una breve historia del mundo"
Cómo usar - Tutorial sobre la construcción de myanmargpt -chat en la máquina local
Afinitado en Myanmargpt-Chat, Modelo de respuesta de preguntas para el idioma birmano. Modelo más rápido, liviano y multiplataforma disponible.
Instalar transformador de cara abrazando
pip install transformers # Using Pipeline
from transformers import pipeline
pipe = pipeline ( "text-generation" , model = "jojo-ai-mst/MyanmarGPT" )
outputs = pipe ( "အီတလီ" , do_sample = False )
print ( outputs ) # Using AutoTokenizer and CausalLM
import torch
from transformers import AutoTokenizer , AutoModelForCausalLM
tokenizer = AutoTokenizer . from_pretrained ( "jojo-ai-mst/MyanmarGPT" )
model = AutoModelForCausalLM . from_pretrained ( "jojo-ai-mst/MyanmarGPT" )
input_ids = tokenizer . encode ( "ချစ်သား" , return_tensors = 'pt' )
output = model . generate ( input_ids , max_length = 50 )
print ( tokenizer . decode ( output [ 0 ], skip_special_tokens = True )) # Using Pipeline
from transformers import pipeline
pipe = pipeline ( "text-generation" , model = "jojo-ai-mst/MyanmarGPT-Big" )
outputs = pipe ( "အီတလီ" , do_sample = False )
print ( outputs ) # Using AutoTokenizer and CausalLM
import torch
from transformers import AutoTokenizer , AutoModelForCausalLM
tokenizer = AutoTokenizer . from_pretrained ( "jojo-ai-mst/MyanmarGPT-Big" )
model = AutoModelForCausalLM . from_pretrained ( "jojo-ai-mst/MyanmarGPT-Big" )
input_ids = tokenizer . encode ( "ချစ်သား" , return_tensors = 'pt' )
output = model . generate ( input_ids , max_length = 50 )
print ( tokenizer . decode ( output [ 0 ], skip_special_tokens = True ))[<iframe width = "898" altura = "505" src = "https://www.youtube.com/embed/rujwqjwmrlm" title = "chat gpt (ai) ကို မြန်မာလို သုံးစွဲနိုင်တော့မလား သုံးစွဲနိုင်တော့မလား-dvb juventud" frameborder = "0" permitido = "acelerómetro de acelerómetro; autoplay; clipborbebook; write; encrycete-media; Imagen-in-Picture;