
Этот проект является учебником по эксклюзивным китайским моделям для детских моделей для моделей с открытым исходным кодом, для домашних начинающих и на основе платформ Linux. Он обеспечивает полное руководство для различных моделей с открытым исходным кодом, включая конфигурацию окружающей среды, локальное развертывание, эффективную точную настройку и другие навыки, упрощение развертывания, использования и процесса применения моделей с открытым исходным кодом, что позволяет более обычным студентам и исследователям лучше использовать модели с открытым исходным кодом, помогая открытым исходным кодам и бесплатным моделям в интеграцию в жизни обычных учеников.
Основное содержание этого проекта включает в себя:
Основным содержанием проекта является учебные пособия, так что все больше студентов и будущих практикующих могут понимать и ознакомиться с методами употребления больших моделей с открытым исходным кодом! Любой может предложить проблему или отправить пиар для совместной построения и поддержания этого проекта.
Студенты, которые хотят глубоко участвовать, могут связаться с нами, и мы добавим вас к сопровождающему проекту.
Предложения по обучению: предложения по обучению для этого проекта должны сначала изучить конфигурацию среды, а затем изучить развертывание и использование модели и, наконец, изучить точную настройку. Поскольку конфигурация среды является основой, развертывание и использование модели является основой, а тонкая настройка продвигается. Новички могут выбрать QWEN1.5, internlm2, minicpm и другие модели, чтобы расставить приоритеты в обучении.
ПРИМЕЧАНИЕ. Если студенты хотят понять состав модели большой модели и записать, такие как RAG, Agent и Eval с нуля, они могут изучить другой проект DataWhale. Big Model - это горячая тема в области глубокого обучения в настоящее время, но большинство существующих учебных пособий Big Model заключаются только в том, чтобы научить вас называть API для завершения применения больших моделей, и немногие люди могут объяснить структуру модели, тряпку, агент и оценку с принципиального уровня. Следовательно, хранилище предоставит весь почерк и не будет использовать форму призывы API для выполнения тряпичных, агента и оценки eval большой модели.
Примечание. Учитывая, что некоторые студенты надеются изучить теоретическую часть большой модели, прежде чем изучать этот проект, если они хотят дальнейшего изучения теоретической основы LLM и дополнительно понимать и применять LLM на основе теории, они могут ссылаться на курс DataWhale по состоянию
Примечание. Если какой -либо студент хочет разрабатывать большие модельные приложения самостоятельно после изучения этого курса. Студенты могут обратиться к практическому курсу разработки приложений DataWhale, который является крупным руководством по разработке приложений для новичков. Он направлен на то, чтобы полностью представить большой процесс разработки приложений для учащихся на основе облачного сервера Alibaba и в сочетании с ассистентами личных знаний.
Что такое большая модель?
Большая модель (LLM) узко относится к моделям обработки естественного языка (NLP), обученными на основе алгоритмов глубокого обучения. Они в основном используются в таких областях, как понимание естественного языка и поколение. В широком смысле они также включают в себя большие модели машинного зрения (CV), мультимодальные крупные модели и большие модели научных вычислений.
Битва сотен моделей находится в полном разгаре, а LLM с открытым исходным кодом появляются один за другим. В настоящее время многие превосходные LLM с открытым исходным кодом появились дома и за рубежом, такие как Llama и Alpaca, и внутри страны, такие как Chatglm, Baichuan, Internlm (Scholar Puyu) и т. Д. Каждый может создать свою уникальную большую модель на основе LLM с открытым исходным кодом.
Однако, если обычные студенты и пользователи хотят использовать эти большие модели, им необходимо иметь определенные технические возможности для завершения развертывания и использования моделей. Для LLM с открытым исходным кодом, которые появляются один за другим, это относительно сложная задача - быстро овладеть методами применения LLM с открытым исходным кодом.
Этот проект направлен на то, чтобы сначала реализовать учебные пособия по развертыванию, использованию и точной настройке основного LLM с открытым исходным кодом дома и за рубежом на основе опыта основных участников; После реализации соответствующих частей основного LLM мы надеемся полностью собрать со-создателей, чтобы обогатить этот мир LLM с открытым исходным кодом и создать все более и более полные учебные пособия для специальных LLMS. Искры усеяны, сходящиеся в море.
Мы надеемся быть лестницей для LLM и широкой публики и принять более великолепный и обширный мир LLM с духом свободы и равенства с открытым исходным кодом.
Этот проект подходит для следующих учеников:
Этот проект планирует организовать весь процесс приложения LLM с открытым исходным кодом, включая конфигурацию и использование окружающей среды, развертывание и применение, тонкую настройку и т. Д. Каждая часть охватывает мейнстрим и функции Open Source LLM:
Чат-Хуанхуань: Чат-ухен Хуан-это модель языка чата, которая подражает тону Чжэна Хуану, используя все строки и предложения о Чжэне Хуане в сценарии «Легенда о Чжэнь Хуань» и точную настройку, основанную на LLM.
Tianji: Tianji-это социальный сценарий, основанный на человеческих чувствах и мирских стилях, охватывающий весь процесс быстрого разработки слов, интеллектуального производства тела, сбора данных и модельной настройки, очистки и использования данных и т. Д.
QWEN2.5-Coder
QWEN2-VL
QWEN2.5
Apple Openelm
Llama3_1-8B-Instruct
Gemma-2-9b-It
Юань2.0
Юань2,0-М32
DeepSeek-Coder-V2
Bilibili Index-1.9b
QWEN2
GLM-4
QWEN 1.5
Google - Джемма
PHI-3
Характерглм-6b
Llama3-8B-Instruct
Xverse-7b-чат
Transnormerllm
Bluelm Vivo Blue Heart модель
Internlm2
Глубокий глубокий поиск
Minicpm
Qwen-Audio
Qwen
Тысяча вещей
Baichuan Intellent
Internlm
Атом (лама2)
Чатглм3
PIP, Conda Change Source @ не имеет лука, имбиря, чеснока
Autodl Open Port @Не пряный имбирь и чеснок
Модель скачать
Выпуск && pr
Примечание: рейтинги отсортируются по уровню вклада
