LLM workshop 2024
1.0.0
이 튜토리얼은 대형 언어 모델 (LLMS)의 빌딩 블록 이해, LLMS 작동 방식 및 Pytorch의 처음부터 코딩하는 방법을 이해하는 데 관심이있는 코더를 목표로합니다. LLM, 최근 이정표 및 사용 사례에 대한 소개 로이 튜토리얼을 시작할 것입니다. 그런 다음 데이터 입력 파이프 라인, 핵심 아키텍처 구성 요소 및 사전 조정 코드를 포함하여 작은 GPT와 같은 LLM을 코딩합니다. 모든 것이 어떻게 결합되는지와 LLM을 예방하는 방법을 이해 한 후에, 우리는 오픈 소스 라이브러리를 사용하여 사전 재 사전 무게와 Finetune LLM을로드하는 방법을 배웁니다.
코드 자료는 스크래치 서적에서 큰 언어 모델을 빌드하고 Litgpt 라이브러리를 사용합니다.
모든 코드 예제 및 종속성이 설치된 준비된 클라우드 환경은 여기에서 확인할 수 있습니다. 이를 통해 참가자는 GPU에서 모든 코드, 특히 사전 여지 및 양방향 섹션에서 실행할 수 있습니다.
또한 설정 폴더의 지침을 참조하여 코드를 로컬로 실행할 컴퓨터를 설정하십시오.
| 제목 | 설명 | 접는 사람 | |
|---|---|---|---|
| 1 | LLMS 소개 | LLMS 소개 워크숍,이 워크숍에서 다루는 주제 및 설정 지침을 소개합니다. | 01_intro |
| 2 | LLM 입력 데이터 이해 | 이 섹션에서는 LLM 용 텍스트 토큰 화기 및 사용자 정의 Pytorch Dataloader를 구현하여 텍스트 입력 파이프 라인을 코딩하고 있습니다. | 02_DATA |
| 3 | LLM 아키텍처 코딩 | 이 섹션에서는 LLM의 개별 빌딩 블록을 넘어 코드로 조립합니다. 우리는 모든 모듈을 세심한 디테일로 다루지 않지만 더 큰 그림과이를 GPT와 같은 모델로 조립하는 방법에 중점을 둘 것입니다. | 03_architecture |
| 4 | 전례 LLM | 파트 4에서는 LLM의 사전 계약 프로세스를 다루고 이전에 구현 한 모델 아키텍처를 사전에 전하기위한 코드를 구현할 것입니다. 사전 여지가 비싸기 때문에 LLM이 일부 기본 문장을 생성 할 수 있도록 공개 도메인에서 사용할 수있는 작은 텍스트 샘플에서만 사전에 사전을 할 것입니다. | 04_PRETRAINING |
| 5 | 사전 치료 중량을 로딩합니다 | 사전 여지가 길고 비싼 과정이기 때문에, 우리는 이제 사전 상충 된 무게를 자체 구현 아키텍처에로드 할 것입니다. 그런 다음 LLMS 교육 및 미세 조정을위한보다 정교한 (아직 읽을 수있는) 코드를 제공하는 Litgpt 오픈 소스 라이브러리를 소개합니다. 우리는 Litgpt에서 사전 여분의 LLM (llama, phi, gemma, mistral)의 무게를로드하는 방법을 배울 것입니다. | 05_weightloading |
| 6 | Finetuning LLM | 이 섹션에서는 LLM FINETINING 기술을 소개 할 것이며, 우리는 명령 결합을위한 작은 데이터 세트를 준비한 후 LLM을 LLM을 정합하는 데 사용할 것입니다. | 06_finetuning |
(코드 자료는 Sc