La toute première et la plus grande langue birmane utilisable GPT au Myanmar

Le Myanmargpt est le tout premier et le plus grand GPT de langue birmane utilisable au Myanmar avec de fortes contributions communautaires. Il a été créé par moi, min si thu.
Ces deux modèles sont formés en utilisant des ensembles de données de propriétés privées, nettoyées manuellement par Min Si Thu.
Il y a deux versions de Myanmargpt en ce moment, 2023 décembre.
Extended, sorti en 2024, 28 janvier.
Sorti en 2024, 23 février.
Le Myanmargpt est un modèle de langue birmane de 128 millions de paramètres. Il est très léger et facile à utiliser sur tous les appareils.
MyanMargpt-Big est un modèle multi-language paramètres de 1,42 milliard. Il s'agit d'un LLM au niveau de l'entreprise pour la langue birmane principalement et d'autres langues. Prend actuellement en charge 61 langues.
Ajusté sur Myanmargpt, Modèle de réponse aux questions pour la langue birmane. Avec la connaissance de "une brève histoire du monde"
Comment utiliser - Tutoriel sur la construction du Myanmargpt-Chat sur la machine locale
Ajusté sur le chat Myanmargpt, modèle de réponse aux questions pour la langue birmane. Modèle disponible plus rapide, léger et multiplateforme.
Installez le transformateur de face étreint
pip install transformers # Using Pipeline
from transformers import pipeline
pipe = pipeline ( "text-generation" , model = "jojo-ai-mst/MyanmarGPT" )
outputs = pipe ( "အီတလီ" , do_sample = False )
print ( outputs ) # Using AutoTokenizer and CausalLM
import torch
from transformers import AutoTokenizer , AutoModelForCausalLM
tokenizer = AutoTokenizer . from_pretrained ( "jojo-ai-mst/MyanmarGPT" )
model = AutoModelForCausalLM . from_pretrained ( "jojo-ai-mst/MyanmarGPT" )
input_ids = tokenizer . encode ( "ချစ်သား" , return_tensors = 'pt' )
output = model . generate ( input_ids , max_length = 50 )
print ( tokenizer . decode ( output [ 0 ], skip_special_tokens = True )) # Using Pipeline
from transformers import pipeline
pipe = pipeline ( "text-generation" , model = "jojo-ai-mst/MyanmarGPT-Big" )
outputs = pipe ( "အီတလီ" , do_sample = False )
print ( outputs ) # Using AutoTokenizer and CausalLM
import torch
from transformers import AutoTokenizer , AutoModelForCausalLM
tokenizer = AutoTokenizer . from_pretrained ( "jojo-ai-mst/MyanmarGPT-Big" )
model = AutoModelForCausalLM . from_pretrained ( "jojo-ai-mst/MyanmarGPT-Big" )
input_ids = tokenizer . encode ( "ချစ်သား" , return_tensors = 'pt' )
output = model . generate ( input_ids , max_length = 50 )
print ( tokenizer . decode ( output [ 0 ], skip_special_tokens = True ))[<iframe width="898" height="505" src="https://www.youtube.com/embed/RujWqJwmrLM" title="Chat GPT (AI) ကို မြန်မာလို သုံးစွဲနိုင်တော့မလား - DVB Youth Voice" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; Image-in-Picture; web-share "allowillscreen> </iframe>] (https://youtu.be/rujwqjwmrlm)