
Ce projet est un tutoriel sur les modèles de bébé chinois exclusifs pour les modèles open source, pour les débutants domestiques et basés sur des plates-formes Linux. Il fournit des conseils de processus complet pour divers modèles open source, notamment la configuration environnementale, le déploiement local, le réglage des amendes efficaces et d'autres compétences, simplifiant le déploiement, l'utilisation et l'application des modèles open source, permettant à plus d'étudiants et de chercheurs ordinaires de mieux utiliser les modèles open source, aidant les modèles open source et gratuits à intégrer à la vie des apprenants ordinaires plus rapidement.
Le contenu principal de ce projet comprend:
Le principal contenu du projet est les tutoriels, afin que davantage d'étudiants et de futurs praticiens puissent se comprendre et se familiariser avec les méthodes de consommation de grands modèles open source! Tout le monde peut proposer un problème ou soumettre un PR pour construire conjointement et maintenir ce projet.
Les étudiants qui souhaitent participer profondément peuvent nous contacter et nous vous ajouterons au responsable du projet.
Suggestions d'apprentissage: Les suggestions d'apprentissage pour ce projet sont d'abord d'apprendre la configuration de l'environnement, puis d'apprendre le déploiement et l'utilisation du modèle, et enfin apprendre le réglage fin. Étant donné que la configuration de l'environnement est la base, le déploiement et l'utilisation du modèle sont la base et le réglage fin est avancé. Les débutants peuvent choisir Qwen1.5, interlm2, minicPM et autres modèles pour hiérarchiser l'apprentissage.
Remarque: Si les élèves veulent comprendre la composition du modèle du grand modèle et écrire des tâches telles que RAG, Agent et Eval à partir de zéro, ils peuvent apprendre un autre projet de Datawhale. Big Model est un sujet brûlant dans le domaine de l'apprentissage en profondeur à l'heure actuelle, mais la plupart des tutoriels des grands modèles existants ne sont que pour vous apprendre à appeler les API pour compléter l'application de grands modèles, et peu de gens peuvent expliquer la structure du modèle, le chiffon, l'agent et l'évaluation du niveau de principe. Par conséquent, le référentiel fournira toute l'écriture manuscrite et n'utilisera pas la forme d'appel de l'API pour terminer les tâches de chiffon, d'agent et d'évaluation du grand modèle.
Remarque: Étant donné que certains étudiants espèrent apprendre la partie théorique du grand modèle avant d'étudier ce projet, s'ils veulent étudier plus loin la base théorique de LLM et comprendre et appliquer davantage LLM sur la base de la théorie, ils peuvent se référer au cours So-Large-Llm de Datawhale.
Remarque: Si un étudiant souhaite développer de grandes applications de modèle par lui-même après avoir étudié ce cours. Les étudiants peuvent se référer au cours pratique de développement des applications de Big Model de Datawhale, qui est un tutoriel de développement des applications de gros modèle pour les novices. Il vise à présenter pleinement le processus de développement des applications du grand modèle aux étudiants en fonction du serveur Cloud Alibaba et combiné avec des projets d'assistant de base de connaissances personnelles.
Qu'est-ce qu'un grand modèle?
Le grand modèle (LLM) se réfère étroitement aux modèles de traitement du langage naturel (NLP) formés en fonction des algorithmes d'apprentissage en profondeur. Ils sont principalement utilisés dans des domaines tels que la compréhension et la génération du langage naturel. Dans un sens large, ils incluent également les grands modèles de vision automatique (CV), les grands modèles multimodaux et les grands modèles informatiques scientifiques.
La bataille de centaines de modèles bat son plein, et les LLM open source émergent les uns après les autres. De nos jours, de nombreuses excellentes LLM open source ont émergé au pays et à l'étranger, comme Llama et Alpaga, et au niveau national, comme ChatGlm, Baichuan, Interlm (Scholar Puyu), etc. Open Source LLM prend en charge le déploiement local des utilisateurs et le réglage fin de domaines privés. Tout le monde peut créer son propre grand modèle unique basé sur l'Open Source LLM.
Cependant, si les étudiants et les utilisateurs ordinaires souhaitent utiliser ces grands modèles, ils doivent avoir certaines capacités techniques pour terminer le déploiement et l'utilisation des modèles. Pour les LLM open source qui émergent les uns après les autres, il est une tâche relativement difficile de maîtriser rapidement les méthodes d'application de l'Open Source LLM.
Ce projet vise à réaliser d'abord les didacticiels de déploiement, d'utilisation et de réglage fin de l'Open Source LLM traditionnel au pays et à l'étranger en fonction de l'expérience des contributeurs principaux; Après avoir réalisé les parties pertinentes de la LLM traditionnelle, nous espérons rassembler pleinement des co-créateurs pour enrichir ce monde de LLM open source et créer des tutoriels de plus en plus complets pour les LLM spéciaux. Des étincelles parsemées, convergeant dans la mer.
Nous espérons être l'échelle de LLM et du grand public, et embrasser le monde LLM plus magnifique et vaste avec l'esprit open source de liberté et d'égalité.
Ce projet convient aux apprenants suivants:
Ce projet prévoit d'organiser l'intégralité du processus d'application LLM open source, y compris la configuration et l'utilisation environnementales, le déploiement et l'application, le réglage fin, etc. Chaque pièce couvre le courant et les fonctionnalités open source LLM:
Chat-Huanhuan: Chat-Zhen Huan est un modèle de langage de chat qui imite le ton de Zhen Huan en utilisant toutes les lignes et phrases sur Zhen Huan dans le script "La légende de Zhen Huan" et le réglage fin basé sur LLM.
Tianji: Tianji est un scénario social basé sur les sentiments humains et les styles mondains, couvrant l'ensemble du processus de l'ingénierie des mots rapide, de la production de corps intelligente, de l'acquisition de données et du modélisation du réglage fin, du nettoyage et de l'utilisation des données de chiffon, etc.
CODER QWEN2.5
Qwen2-vl
Qwen2.5
Apple OpenELM
LLAMA3_1-8B-INSTRUCT
Gemma-2-9b-it
Yuan2.0
Yuan2.0-m32
Coder profonde-v2
Bilibili Index-1.9b
Qwen2
GLM-4
Qwen 1.5
Google - Gemma
phi-3
CaracterGlm-6b
LLAMA3-8B-INSTRUCT
Xverse-7b-bavard
Transnormerllm
BLUELM VIVO BLUE COEUR MODÈLE
Interlm2
Recherche approfondie en profondeur
Minimicpm
Qwen-Audio
Qwen
Mille choses
Baichuan intelligent
Interne
Atom (Llama2)
Chatglm3
pip, conda change source @ n'a pas d'oignon, de gingembre, d'ail
Autodl Open Port @ Don't Spicy Ginger and Ail
Téléchargement du modèle
Problème et pr
Remarque: les classements sont triés par niveau de contribution
