Примечание. Это простая структура моделей Toy LLM для игры в моделях LLM и понимание его рабочих принципов
Это не модель LLM, но вы можете поместить ваши данные и обучить их для создания моделей LLM
Экспериментальная реализация архитектуры языковой модели (LLM) для исследований и разработок ИТ-архитектур, процесса проектирования для создания, обучения и тонкоостренных эффективных генеративных моделей трансформеров (GPT)
Для получения дополнительных инструментов, связанных с искусственным интеллектом и структуры, загляните в Ox-AI Проект AI с открытым исходным кодом
GitHub Pull будет чистым, если их столкнуться с ошибками, пожалуйста, сообщите о проблемах
pip install git+https://github.com/Lokeshwaran-M/jam-gpt.gitJAM-GPT == 0.0.4 может не иметь точной настройки, поскольку она все еще находится в стадии разработки и может содержать ошибку, пожалуйста, сообщите о проблемах, если таковые имеются
pip install jam-gptDESTER DOCS и TEST-GPTLMM.IPYNB для примеров кода
from jam_gpt . tokenizer import Tokenizer
from jam_gpt import config
from jam_gpt import lm
from jam_gpt . model import Model
md_name = "md-name"
tok = Tokenizer ()
tok . get_encoding ( md_name )
# model initilization
model = Model ()
# load pretrined model
model . load_model ( md_name )
# Generate data using Model
pmt = tok . encode ( "user prompt" )
res = tok . decode ( model . generate ( pmt ))
print ( res )Документы JAM-GPT дадут вам полное использование и объяснение библиотеки JAM-GPT
1 установка
2 Сбор данных
3 Токенизация
4 Конфигурация
5 Языковая модель (LM, модель)
6 Модель тонкой настройки
Для руководящих принципов и условий взносов для внесения вклад в рассмотрение JAM-Contribwition путем разрыва PR Вы принимаете термины и условия
Любая форма вклада принимается здесь
Submitting :
Issues
pull requests
feature requests
bug reports
documentation