著者:Diaoule Diallo、Roxanne El Baff、Dominik Opitz、Oliver Bensch、PeerSchütt
対応する著者:PeerSchütt(Peer.schuett at dlr.de)
このハンズオンチュートリアルでは、プロンプトエンジニアリングの最新の手法、検索拡張生成(RAG)を使用して大規模な言語モデル(LLM)を効率的に使用する方法、および外部ツールからの情報を豊富に充実させる最近の方法であるToolformerを学びます。独自のローカルLLMモデルをセットアップし、これらの手法をサンプルタスクに適用できます。理想的には、この知識をすぐに使用して、研究であろうと管理であろうと、自分の課題に取り組むことができます。
このチュートリアルは、WAW ML 2024のために準備されました。
3つのチュートリアルパーツのそれぞれには、指示が付いた専用フォルダーがあります。チュートリアルは、4つのステップで完了する予定です。
LM Studio(https://lmstudio.ai/)を使用します。インストール手順lm_studio_install_instruct.pdf、LMスタジオの簡単な紹介、および使用するモデルの説明を備えたPDFを提供します。 PDFを読んで、指定されたLLMモデルをダウンロードして、LM Studioを稼働させてください。チュートリアルの一部では、ミストラルAPIを使用してパフォーマンスを向上させることができますが、これはオプションの選択です。それを使用したい場合は、こちらからサインアップしてください(https://docs.mistral.ai/getting-started/quickstart/#account-setup)。しかし、すべての部品はLM Studioで実行可能です。
また、必要なすべてのPythonパッケージを備えたrequirements.txt提供します。それで、チュートリアルのためにコンドラ/マンバ環境を作成できます。
conda init powershell # only for Windows users - requires terminal restart
conda activate
mamba create -n waw_ml python=3.10 # mamba/conda depending on what you use
conda activate waw_ml
pip install -r requirements.txt