Самый первый и крупнейший полезный бирманский язык GPT в Мьянме

Myanmargpt - самый первый и крупнейший полезный бирманский язык GPT в Мьянме с сильным вкладом сообщества. Это было создано мной, Min Si Thu.
Эти две модели обучаются с использованием наборов данных частной собственности, вручную очищенных Min Si Thu.
В настоящее время есть две версии Myanmargpt, 2023 декабрь.
Расширен, выпущен в 2024 году, 28 января.
Выпущен в 2024 году, 23 февраля.
Myanmargpt - это 128 миллионов параметров модели бирманского языка. Он очень легкий и простой в использовании на всех устройствах.
Myanmargpt-Big-это 1,42 миллиарда параметров многоязычной модели. Это LLM на уровне предприятия для бирманского языка в основном и других языков. В настоящее время поддерживает 61 языка.
Настраиваясь на Myanmargpt, модель ответа на вопросы для бирманского языка. Со знанием «Краткой истории мира»
Как использовать - Учебное пособие по строительству myanmargpt -chat на местной машине
Настраиваясь на модель ответа на вопрос Myanmargpt, для бирманского языка. Быстрая, легкая и мультиплатформенная доступная модель.
Установить трансформатор обнимающегося лица
pip install transformers # Using Pipeline
from transformers import pipeline
pipe = pipeline ( "text-generation" , model = "jojo-ai-mst/MyanmarGPT" )
outputs = pipe ( "အီတလီ" , do_sample = False )
print ( outputs ) # Using AutoTokenizer and CausalLM
import torch
from transformers import AutoTokenizer , AutoModelForCausalLM
tokenizer = AutoTokenizer . from_pretrained ( "jojo-ai-mst/MyanmarGPT" )
model = AutoModelForCausalLM . from_pretrained ( "jojo-ai-mst/MyanmarGPT" )
input_ids = tokenizer . encode ( "ချစ်သား" , return_tensors = 'pt' )
output = model . generate ( input_ids , max_length = 50 )
print ( tokenizer . decode ( output [ 0 ], skip_special_tokens = True )) # Using Pipeline
from transformers import pipeline
pipe = pipeline ( "text-generation" , model = "jojo-ai-mst/MyanmarGPT-Big" )
outputs = pipe ( "အီတလီ" , do_sample = False )
print ( outputs ) # Using AutoTokenizer and CausalLM
import torch
from transformers import AutoTokenizer , AutoModelForCausalLM
tokenizer = AutoTokenizer . from_pretrained ( "jojo-ai-mst/MyanmarGPT-Big" )
model = AutoModelForCausalLM . from_pretrained ( "jojo-ai-mst/MyanmarGPT-Big" )
input_ids = tokenizer . encode ( "ချစ်သား" , return_tensors = 'pt' )
output = model . generate ( input_ids , max_length = 50 )
print ( tokenizer . decode ( output [ 0 ], skip_special_tokens = True ))[<iframe width = "898" height = "505" src = "https://www.youtube.com/embed/rujwqjwmrlm" title = "CHAT gpt (ai) ကို မြန်မာလို သုံးစွဲနိုင်တော့မလား သုံးစွဲနိုင်တော့မလား-DVB Youth Youth Voice" Frameborder = "0" Allow = "Accelerometer; Autoplay; Picture-in-Picture;