
이 프로젝트는 오픈 소스 모델, 국내 초보자 및 Linux 플랫폼을 기반으로 한 독점 중국 베이비 모델에 대한 자습서입니다. 환경 구성, 로컬 배치, 효율적인 미세 조정 및 기타 기술, 오픈 소스 모델의 배포, 사용 및 응용 프로세스를 단순화하여 오픈 소스 모델을 더 잘 사용하여 오픈 소스 및 무료 모델이 일반 학습자의 삶에 더 빠르게 통합 할 수 있도록하는 다양한 오픈 소스 모델에 대한 풀 프로세스 지침을 제공합니다.
이 프로젝트의 주요 내용은 다음과 같습니다.
이 프로젝트의 주요 내용은 튜토리얼이므로 더 많은 학생들과 미래의 실무자들이 오픈 소스 큰 모델을 먹는 방법을 이해하고 친숙하게 할 수 있습니다! 누구나이 프로젝트를 구축하고 유지하기 위해 문제를 제안하거나 PR을 제출할 수 있습니다.
깊이 참여하려는 학생들은 저희에게 연락 할 수 있으며 프로젝트 관리자에 귀하를 추가 할 것입니다.
학습 제안 :이 프로젝트의 학습 제안은 먼저 환경 구성을 배우고 모델 배포 및 사용을 배우고 최종적으로 미세 조정을 배우는 것입니다. 환경 구성이 기초이므로 모델의 배포 및 사용이 기초이며 미세 조정이 진행됩니다. 초보자는 학습의 우선 순위를 정해 QWEN1.5, InternLM2, MinICPM 및 기타 모델을 선택할 수 있습니다.
참고 : 학생들이 큰 모델의 모델 구성을 이해하고 Rag, Agent 및 Eval과 같은 작업을 처음부터 작성하려면 Datawhale의 다른 프로젝트를 배울 수 있습니다. Big Model은 현재 딥 러닝 분야에서 인기있는 주제이지만 대부분의 기존의 큰 모델 자습서는 API를 호출하여 큰 모델의 적용을 완료하는 방법을 가르쳐주는 것이며, 모델 구조, Rag, 에이전트 및 원칙 수준에서 평가를 설명 할 수있는 사람은 거의 없습니다. 따라서이 저장소는 모든 필기를 제공하며 API를 호출하여 큰 모델의 헝겊, 에이전트 및 평가 작업을 완료하는 형태를 사용하지 않습니다.
참고 : 일부 학생들은이 프로젝트를 공부하기 전에 큰 모델의 이론적 부분을 배우기를 희망한다는 점을 고려할 때, LLM의 이론적 기초를 추가로 연구하고 이론을 기반으로 LLM을 더 이해하고 적용하려면 Datawhale의 너무 큰 과정 과정을 언급 할 수 있습니다.
참고 : 어떤 학생 이이 과정을 공부 한 후 스스로 대규모 모델 응용 프로그램을 개발하려는 경우. 학생들은 Datawhale의 실습 대형 모델 응용 프로그램 개발 과정을 참조 할 수 있습니다.이 과정은 초보자를위한 대형 모델 응용 프로그램 개발 자습서입니다. Alibaba Cloud Server를 기반으로하는 학생들에게 대형 모델 응용 프로그램 개발 프로세스를 완전히 제시하고 Personal Knowledge Base Assistant 프로젝트와 결합하는 것을 목표로합니다.
큰 모델은 무엇입니까?
대형 모델 (LLM)은 딥 러닝 알고리즘을 기반으로 훈련 된 자연 언어 처리 (NLP) 모델을 좁게합니다. 그들은 주로 자연어 이해 및 세대와 같은 분야에서 사용됩니다. 광범위한 의미에서는 기계 비전 (CV) 대형 모델, 멀티 모달 대형 모델 및 과학 컴퓨팅 대형 모델도 포함됩니다.
수백 개의 모델의 전투가 본격적으로 진행되고 있으며 오픈 소스 LLM이 서로 떠오르고 있습니다. 오늘날 LLAMA 및 Alpaca와 같은 LLA, Baichuan, Internlm (Scholar Puyu) 등과 같은 국내외에서 많은 우수한 오픈 소스 LLM이 등장했습니다. 오픈 소스 LLM은 사용자의 로컬 배치 및 개인 도메인의 미세 조정을 지원합니다. 모든 사람은 오픈 소스 LLM을 기반으로 고유 한 빅 모델을 만들 수 있습니다.
그러나 일반적인 학생과 사용자가 이러한 큰 모델을 사용하려면 모델의 배포 및 사용을 완료하기 위해 특정 기술 기능이 있어야합니다. 떠오르는 오픈 소스 LLM의 경우 오픈 소스 LLM의 응용 방법을 빠르게 마스터하는 것은 비교적 어려운 작업입니다.
이 프로젝트는 먼저 핵심 기고자의 경험을 바탕으로 가정 및 해외에서 주류 오픈 소스 LLM의 배포, 사용 및 미세 조정 자습서를 실현하는 것을 목표로합니다. 주류 LLM의 관련 부분을 실현 한 후, 우리는 공동 제작자를 완전히 모아이 오픈 소스 LLM의 세계를 풍부하게하고 특별한 LLM을위한 점점 더 포괄적 인 자습서를 만들기를 희망합니다. 스파크는 점선으로, 바다로 수렴.
우리는 LLM과 일반 대중의 사다리가되기를 희망하며 오픈 소스의 자유와 평등의 정신으로 더 웅장하고 광대 한 LLM 세계를 받아들입니다.
이 프로젝트는 다음 학습자에게 적합합니다.
이 프로젝트는 환경 구성 및 사용, 배포 및 응용 프로그램, 미세 조정 등을 포함하여 오픈 소스 LLM 애플리케이션의 전체 프로세스를 구성 할 계획입니다. 각 부분은 주류를 다루고 오픈 소스 LLM 기능을 제공합니다.
Chat-Huanhuan : Chat-Zhen Huan은 스크립트 "Zhen Huan의 전설"에서 Zhen Huan에 대한 모든 줄과 문장을 사용하여 Zhen Huan의 톤을 모방하고 LLM을 기반으로 한 미세 조정을하는 채팅 언어 모델입니다.
Tianji : Tianji는 인간의 감정과 세속적 인 스타일을 기반으로하는 사회적 시나리오로, 신속한 단어 공학, 지능형 신체 생산, 데이터 수집 및 모델 미세 조정, RAG 데이터 청소 및 사용 등의 전체 프로세스를 다루고 있습니다.
QWEN2.5 코더
QWEN2-VL
qwen2.5
Apple Openelm
llama3_1-8B-비율
젬마 -2-9B-IT
Yuan2.0
Yuan2.0-M32
Deepseek-Coder-V2
빌리 빌리 인덱스 -9B
Qwen2
GLM-4
Qwen 1.5
Google- 젬마
PHI-3
문자 Glm-6b
LLAMA3-8B- 강조
xverse-7b-chat
Transnormerllm
Bluelm Vivo Blue Heart 모델
internlm2
심도 깊은 검색
minicpm
Qwen-Audio
Qwen
천 가지
Baichuan 지능형
internlm
원자 (llama2)
chatglm3
Pip, Conda Change Source @ do not 양파, 생강, 마늘이 없습니다.
Autodl Open Port @매운 생강과 마늘을하지 마십시오
모델 다운로드
문제 및 pr
참고 : 순위는 기여 수준별로 정렬됩니다
