저자 : Diaoule Diallo, Roxanne El Baff, Dominik Opitz, Oliver Bensch, Peer Schütt
해당 저자 : Peer Schütt (peer.schuett at dlr.de)
이 실습 튜토리얼에서는 프롬프트 엔지니어링의 최신 기술, 검색 증강 생성 (RAG)을 사용하여 대형 언어 모델 (LLM)을 효율적으로 조정하는 방법 및 외부 도구의 정보를 통해 LLM을 풍부하게하는 도구 포맷서를 사용하여 효율적으로 조정하는 방법을 배웁니다. 자신의 로컬 LLM 모델을 설정하고 이러한 기술을 샘플 작업에 적용 할 수 있습니다. 이상적으로는이 지식을 바로 사용하여 연구 나 행정에서 자신의 도전을 해결할 수 있습니다.
이 튜토리얼은 WAW ML 2024를 위해 준비되었습니다.
세 가지 튜토리얼 부품에는 지침이 포함 된 전용 폴더가 있습니다. 튜토리얼은 4 단계로 완료 될 계획입니다.
LM Studio (https://lmstudio.ai/)를 사용할 것입니다. 설치 지침 LM_STUDIO_INSTALL_INSTRUCT.PDF, LM Studio에 대한 짧은 소개 및 사용하려는 모델에 대한 설명이 PDF를 제공합니다. PDF를 읽고 지정된 LLM 모델을 다운로드하고 LM Studio가 업 및 실행되도록하십시오 . 튜토리얼의 일부의 경우 Mistral API를 사용하여 더 나은 성능을 얻을 수 있지만 선택 사항입니다. 사용하려면 여기에 가입하십시오 (https://docs.mistral.ai/getting-started/quickstart/#account-setup). 그러나 모든 부품은 LM Studio를 사용하여 가능합니다.
또한 필요한 모든 Python 패키지와 함께 requirements.txt 제공합니다. 이를 통해 자습서를위한 Conda/Mamba 환경을 만들 수 있습니다.
conda init powershell # only for Windows users - requires terminal restart
conda activate
mamba create -n waw_ml python=3.10 # mamba/conda depending on what you use
conda activate waw_ml
pip install -r requirements.txt