
本項目是一個圍繞開源大模型、針對國內初學者、基於Linux 平台的中國寶寶專屬大模型教程,針對各類開源大模型提供包括環境配置、本地部署、高效微調等技能在內的全流程指導,簡化開源大模型的部署、使用和應用流程,讓更多的普通學生、研究者更好地使用開源大模型,幫助開源、自由的大模型更快融入到普通學習者的生活中。
本項目的主要內容包括:
項目的主要內容就是教程,讓更多的學生和未來的從業者了解和熟悉開源大模型的食用方法!任何人都可以提出issue或是提交PR,共同構建維護這個項目。
想要深度參與的同學可以聯繫我們,我們會將你加入到項目的維護者中。
學習建議:本項目的學習建議是,先學習環境配置,然後再學習模型的部署使用,最後再學習微調。因為環境配置是基礎,模型的部署使用是基礎,微調是進階。初學者可以選擇Qwen1.5,InternLM2,MiniCPM等模型優先學習。
注:如果有同學希望了解大模型的模型構成,以及從零手寫RAG、Agent和Eval等任務,可以學習Datawhale的另一個項目Tiny-Universe,大模型是當下深度學習領域的熱點,但現有的大部分大模型教程只在於教給大家如何調用api完成大模型的應用,而很少有人能夠從原理層面講清楚模型結構、RAG、Agent 以及Eval。所以該倉庫會提供全部手寫,不採用調用api的形式,完成大模型的RAG 、 Agent 、Eval 任務。
注:考慮到有同學希望在學習本項目之前,希望學習大模型的理論部分,如果想要進一步深入學習LLM 的理論基礎,並在理論的基礎上進一步認識、應用LLM,可以參考Datawhale 的so-large-llm課程。
注:如果有同學在學習本課程之後,想要自己動手開發大模型應用。同學們可以參考Datawhale 的動手學大模型應用開發課程,該項目是一個面向小白開發者的大模型應用開發教程,旨在基於阿里雲服務器,結合個人知識庫助手項目,向同學們完整的呈現大模型應用開發流程。
什麼是大模型?
大模型(LLM)狹義上指基於深度學習算法進行訓練的自然語言處理(NLP)模型,主要應用於自然語言理解和生成等領域,廣義上還包括機器視覺(CV)大模型、多模態大模型和科學計算大模型等。
百模大戰正值火熱,開源LLM 層出不窮。如今國內外已經湧現了眾多優秀開源LLM,國外如LLaMA、Alpaca,國內如ChatGLM、BaiChuan、InternLM(書生·浦語)等。開源LLM 支持用戶本地部署、私域微調,每一個人都可以在開源LLM 的基礎上打造專屬於自己的獨特大模型。
然而,當前普通學生和用戶想要使用這些大模型,需要具備一定的技術能力,才能完成模型的部署和使用。對於層出不窮又各有特色的開源LLM,想要快速掌握一個開源LLM 的應用方法,是一項比較有挑戰的任務。
本項目旨在首先基於核心貢獻者的經驗,實現國內外主流開源LLM 的部署、使用與微調教程;在實現主流LLM 的相關部分之後,我們希望充分聚集共創者,一起豐富這個開源LLM 的世界,打造更多、更全面特色LLM 的教程。星火點點,匯聚成海。
我們希望成為LLM 與普羅大眾的階梯,以自由、平等的開源精神,擁抱更恢弘而遼闊的LLM 世界。
本項目適合以下學習者:
本項目擬圍繞開源LLM 應用全流程組織,包括環境配置及使用、部署應用、微調等,每個部分覆蓋主流及特點開源LLM:
Chat-嬛嬛: Chat-甄嬛是利用《甄嬛傳》劇本中所有關於甄嬛的台詞和語句,基於LLM進行LoRA微調得到的模仿甄嬛語氣的聊天語言模型。
Tianji-天機:天機是一款基於人情世故社交場景,涵蓋提示詞工程、智能體製作、 數據獲取與模型微調、RAG 數據清洗與使用等全流程的大語言模型系統應用教程。
Qwen2.5-Coder
Qwen2-vl
Qwen2.5
Apple OpenELM
Llama3_1-8B-Instruct
Gemma-2-9b-it
Yuan2.0
Yuan2.0-M32
DeepSeek-Coder-V2
嗶哩嗶哩Index-1.9B
Qwen2
GLM-4
Qwen 1.5
谷歌-Gemma
phi-3
CharacterGLM-6B
LLaMA3-8B-Instruct
XVERSE-7B-Chat
TransNormerLLM
BlueLM Vivo 藍心大模型
InternLM2
DeepSeek 深度求索
MiniCPM
Qwen-Audio
Qwen
Yi 零一萬物
Baichuan 百川智能
InternLM
Atom (llama2)
ChatGLM3
pip、conda 換源@不要蔥薑蒜
AutoDL 開放端口@不要蔥薑蒜
模型下載
Issue && PR
注:排名根據貢獻程度排序
