이 repo에는 유명한 따옴표 데이터 세트와 함께 LLM (Lange Language Model) (LLM)을 미세 조정하는 코드가 포함되어 있습니다.
지원되는 미세 조정 방법은 DeepSpeed, Lora 또는 Qlora입니다.
원래 Repo는 아직 Huggingface Transformer 패키지에 추가되지 않았을 때 GPTJ의 모델 가중치를 다운로드하여 변환했습니다. 이 코드는 여전히 Branch original_youtube 에서 볼 수 있습니다.
/quotes_dataset 에는 미세 조정을 위해 올바르게 형식화 된 데이터 세트가 포함되어 있습니다. 이 데이터 세트를 여기에서 작성하려면 Repo를 참조하십시오
/finetuning_repo 에는 원래 Repo의 코드가 포함되어 있으며 더 많은 모델과 더 많은 방법으로 작업하도록 수정했습니다.
유료 전문 도움이 필요한 경우이 이메일을 통해 사용할 수 있습니다.
비디오 자습서는 여기에서 원래 리포 코드의 오래된 비디오를 참조하십시오.
Huggingface 모델 사용을위한보다 업데이트 된 비디오는 여기에서 볼 수 있습니다.
original_youtube 지점으로 이동하여 코드를보고 싶지만 더 현대적인 방법을 사용하는 것이 좋습니다.
업데이트 된 연습은 Nvidia-Docker를 사용하여 많은 프로세스에서 두통을 벗어납니다.
64 비트 Linux 시스템이 있고 A100 용 드라이버가 필요한 경우 이와 같은 명령을 실행하여 설정할 수 있습니다.
wget https://us.download.nvidia.com/tesla/515.86.01/NVIDIA-Linux-x86_64-515.86.01.run
그런 다음 Sudo와 함께 다운로드 된 프로그램을 실행합니다.
chmod 777 NVIDIA-Linux-x86_64-515.86.01.run
sudo ./NVIDIA-Linux-x86_64-515.86.01.run
build_image.sh 실행하여 Docker 이미지를 빌드하십시오. Docker 이미지를 찾을 수 없다는 오류가 발생하면 최신 CUDA 버전으로 업데이트하십시오. 이미지는 주기적으로 더 이상 사용되지 않습니다. 그런 다음 PR을 열어 다른 사람을 위해이 문제를 해결할 수 있습니다. Docker 이미지를 구축하는 데 몇 분이 걸릴 수 있습니다.run_image.sh 실행하십시오. 이 스크립트는 방금 구축 된 Docker 이미지를 실행하고 현재 디렉토리를 Docker 컨테이너 내부 /workspace 으로 장착합니다. 시스템의 모든 GPU는 통과됩니다. 또한이 컨테이너가 실행될 때마다 모델 다운로드를 방지하기 위해 .cache 도 통과합니다.