
Dieses Projekt ist ein Tutorial zu exklusiven chinesischen Babymodellen für Open -Source -Modelle, für inländische Anfänger und basierend auf Linux -Plattformen. Es bietet Anleitungen für Vollprozess für verschiedene Open-Source-Modelle, einschließlich Umgebungskonfiguration, lokaler Bereitstellung, effizienter Feinabstimmung und anderer Fähigkeiten, Vereinfachung der Bereitstellung, Verwendung und Anwendung von Open-Source-Modellen, wodurch gewöhnliche Schüler und Forscher die Open-Source-Modelle besser verwenden können. Open Source und freie Modelle, um sich in das Leben der gewöhnlichen Lernenden zu integrieren.
Der Hauptinhalt dieses Projekts umfasst:
Der Hauptinhalt des Projekts sind Tutorials, damit mehr Studenten und zukünftige Praktiker die Methoden des Essens von Open -Source -Modellen verstehen und vertraut machen können! Jeder kann ein Problem vorschlagen oder eine PR einreichen, um dieses Projekt gemeinsam zu erstellen und zu pflegen.
Schüler, die tief teilnehmen möchten, können uns kontaktieren und wir werden Sie zum Projektbleibchen hinzufügen.
Lernvorschläge: Die Lernvorschläge für dieses Projekt sind es, zuerst die Konfiguration der Umgebung zu lernen, dann die Modellbereitstellung und -nutzung zu lernen und schließlich eine Feinabstimmung zu lernen. Da die Umgebungskonfiguration die Grundlage ist, ist die Bereitstellung und Verwendung des Modells die Grundlage, und die Feinabstimmung wird fortgeschritten. Anfänger können QWEN1.5, Internlm2, Minicpm und andere Modelle auswählen, um das Lernen zu priorisieren.
Hinweis: Wenn die Schüler die Modellzusammensetzung des großen Modells verstehen und Aufgaben wie Lappen, Agent und Eval von Grund auf schreiben möchten, können sie ein anderes Projekt von Datawhale lernen. Big Model ist derzeit ein heißes Thema im Bereich Deep Learning, aber die meisten vorhandenen Big Model -Tutorials müssen Sie nur beibringen, wie Sie APIs aufrufen, um die Anwendung großer Modelle zu vervollständigen, und nur wenige Personen können die Modellstruktur, Lappen, Agent und Evaly aus der Prinzip -Ebene erklären. Daher stellt das Repository alle Handschrift bereit und verwendet nicht die Form des Aufrufens der API, um die Aufgaben des Lappen-, Agenten- und Bewertungsaufgaben des großen Modells zu erledigen.
Hinweis: Wenn man bedenkt, dass einige Schüler vor dem Studium dieses Projekts den theoretischen Teil des großen Modells lernen, wenn sie die theoretische Grundlage von LLM weiter untersuchen und LLM weiterhin auf der Grundlage der Theorie verstehen und weiter anwenden möchten, können sie sich auf den so-large-Large-Kurs von Datawhale verweisen.
Hinweis: Wenn ein Schüler nach dem Studium dieses Kurses alleine große Modellanwendungen entwickeln möchte. Die Studierenden können sich auf den praktischen Kurs zur Entwicklung von Big Model Application Development beziehen, das ein Tutorial für Anfänger für die Entwicklung von Modellanwendungen ist. Ziel ist es, den auf dem Alibaba -Cloud -Server basierenden Prozess der Entwicklung von Big Model Application die Entwicklung von Schülern vollständig vorzustellen und mit persönlichen Wissensbasis -Assistentenprojekten zu kombinieren.
Was ist ein großes Modell?
Large Model (LLM) bezieht sich knapp auf natürliche Sprachverarbeitung (NLP) -Modelle, die basierend auf Deep -Learning -Algorithmen trainiert sind. Sie werden hauptsächlich in Bereichen wie Verständnis und Generation natürlicher Sprache verwendet. In einem breiten Sinne umfassen sie auch große Modelle für Maschinenvision (CV), multimodale große Modelle und wissenschaftliche Computing große Modelle.
Die Schlacht von Hunderten von Modellen ist in vollem Gange, und Open Source LLMs entstehen nacheinander. Heutzutage sind viele hervorragende Open-Source-LLMs im In- und Ausland aufgetaucht, wie Lama und Alpaka sowie im Inland wie Chatglm, Baichuan, Internlm (Scholar Puyu) usw. Open Source LLM unterstützt die lokale Bereitstellung von Benutzern und Feinabstimmung privater Domänen. Jeder kann sein eigenes einzigartiges großes Modell erstellen, das auf Open Source LLM basiert.
Wenn gewöhnliche Schüler und Benutzer diese großen Modelle verwenden möchten, müssen sie über bestimmte technische Funktionen verfügen, um die Bereitstellung und Verwendung der Modelle zu vervollständigen. Für Open -Source -LLMs, die nacheinander auftreten, ist es eine relativ herausfordernde Aufgabe, die Anwendungsmethoden von Open Source LLM schnell zu beherrschen.
Dieses Projekt soll zunächst die Einsatz-, Nutzungs- und Feinabstimmungs-Tutorials von Mainstream Open Source LLM im In- und Ausland basierend auf der Erfahrung von Kernbeiträgen erkennen. Nachdem wir die relevanten Teile von Mainstream LLM erkannt haben, hoffen wir, Mitschöpfer vollständig zu sammeln, um diese Welt der Open-Source-LLM zu bereichern und immer umfassendere Tutorials für Special LLMs zu erstellen. Funken gepunktet und konvergierten sich ins Meer.
Wir hoffen, die Leiter für LLM und die breite Öffentlichkeit zu sein und die großartigere und riesigere LLM -Welt mit dem Open -Source -Geist der Freiheit und der Gleichheit zu akzeptieren.
Dieses Projekt ist für die folgenden Lernenden geeignet:
Dieses Projekt plant, den gesamten Prozess der Open-Source-LLM-Anwendung zu organisieren, einschließlich Umgebungskonfiguration und -nutzung, Bereitstellung und Anwendung, Feinabstimmung usw. Jeder Teil umfasst den Mainstream und verfügt über Open Source LLM: Features Open Source LLM:
Chat-Huanhuan: Chat-Zhen Huan ist ein Chat-Sprachmodell, das den Ton von Zhen Huan mit allen Zeilen und Sätzen über Zhen Huan im Skript "Die Legende von Zhen Huan" und die Feinabstimmung basierend auf LLM nachahmt.
Tianji: Tianji ist ein soziales Szenario, das auf menschlichen Gefühlen und weltlichen Stilen basiert und den gesamten Prozess des schnellen Worttechnik, der intelligenten Körperproduktion, der Datenerfassung und der Modellfeinung, der Reinigung und Verwendung von Lappen usw. abdeckt.
QWEN2.5-CODER
Qwen2-vl
Qwen2.5
Apple OpenLM
LLAMA3_1-8B-ISTRUCT
Gemma-2-9b-it
Yuan2.0
Yuan2.0-m32
Deepseek-Coder-V2
Bilibili Index-1.9b
Qwen2
GLM-4
Qwen 1.5
Google - Gemma
Phi-3
Charakterglm-6b
LLAMA3-8B-ISTRUCT
Xverse-7b-Chat
Transnormerllm
Bluelm vivo Blue Heart Model
Internlm2
Deepseek Tiefende Suche
Minicpm
Qwen-Audio
Qwen
Tausend Dinge
Baichuan intelligent
Internlm
Atom (llama2)
Chatglm3
Pip, Conda Change Source @ haben keine Zwiebel, Ingwer, Knoblauch
Autodl öffnen Port @Don't Spicy Ingwer und Knoblauch
Modell Download
Ausgabe && pr
Hinweis: Die Ranglisten werden nach Beitragsebene sortiert
