llm applications
1.0.0
RAGベースのLLMアプリケーションを構築するための包括的なガイド。
このガイドでは、次の方法を学びます。
OpenAIを使用して、 gpt-3.5-turbo 、 gpt-4などのChatGPTモデルや、 Llama-2-70bのようなOSS LLMにアクセスするスケールエンドポイントにアクセスします。両方に対してアカウントを作成し、資格情報を準備してください。
g3.8xlargeヘッドノードを使用して、2つのGPUと32のCPUを備えたG3.8XLARGEヘッドノードを使用して、ステージングで新しい任意のスケールワークスペースを開始します。また、GPUワーカーノードを追加して、ワークロードをより速く実行することもできます。スケールにいない場合は、クラウドで同様のインスタンスを構成できます。default_cluster_env_2.6.2_py39クラスター環境を使用します。us-west-2を使用します(ソースドキュメント、ベクターDBダンプなど)。git clone https://github.com/ray-project/llm-applications.git .
git config --global user.name < GITHUB-USERNAME >
git config --global user.email < EMAIL-ADDRESS >私たちのデータは既に/efs/shared_storage/goku/docs.ray.io/en/master/ (ステージング、 us-east-1 )で準備ができていますが、自分でロードしたい場合は、このbashコマンド(変更/desired/output/directoryを実行しますが、共有ストレージにあることを確認してください。
git clone https://github.com/ray-project/llm-applications.git .次に、 .envファイルの値を指定し、依存関係をインストールすることにより、環境を正しくセットアップします。
pip install --user -r requirements.txt
export PYTHONPATH= $PYTHONPATH : $PWD
pre-commit install
pre-commit autoupdatetouch .env
# Add environment variables to .env
OPENAI_API_BASE= " https://api.openai.com/v1 "
OPENAI_API_KEY= " " # https://platform.openai.com/account/api-keys
ANYSCALE_API_BASE= " https://api.endpoints.anyscale.com/v1 "
ANYSCALE_API_KEY= " " # https://app.endpoints.anyscale.com/credentials
DB_CONNECTION_STRING= " dbname=postgres user=postgres host=localhost password=postgres "
source .envこれで、rag.ipynbインタラクティブノートブックを調べて、LLMアプリケーションを開発および提供する準備ができました!
Llama-3-70bの$ 1/mトークン)とリクエストに応じて利用可能なプライベートエンドポイント(1mフリートークントライアル)を備えたOSS LLMS(+微調整)を開始します。