Ein umfassender Leitfaden zum Aufbau von LLM-Anwendungen auf Lappenbasis für die Produktion.
In diesem Leitfaden lernen wir:
Wir werden OpenAI verwenden, um auf ChatGPT-Modelle wie gpt-3.5-turbo , gpt-4 usw. und AnyScale-Endpunkte zuzugreifen, um auf OSS-LLMs wie Llama-2-70b zuzugreifen. Stellen Sie sicher, dass Sie Ihre Konten für beide erstellen und Ihre Anmeldeinformationen vorbereiten.
g3.8xlarge -Kopfknoten mit 2 GPUs und 32 CPUs. Wir können auch GPU -Arbeiterknoten hinzufügen, um die Workloads schneller auszuführen. Wenn Sie nicht in AnyScale sind, können Sie eine ähnliche Instanz in Ihrer Cloud konfigurieren.default_cluster_env_2.6.2_py39 .us-west-2 wenn Sie die Artefakte in unserem gemeinsam genutzten Speicher verwenden möchten (Quelldokumente, Vektor-DB-Dumps usw.).git clone https://github.com/ray-project/llm-applications.git .
git config --global user.name < GITHUB-USERNAME >
git config --global user.email < EMAIL-ADDRESS > Unsere Daten sind bereits bereit unter /efs/shared_storage/goku/docs.ray.io/en/master/ (auf Inszenierung, us-east-1 /desired/output/directory .
git clone https://github.com/ray-project/llm-applications.git . Richten Sie dann die Umgebung korrekt ein, indem Sie die Werte in Ihrer .env -Datei angeben und die Abhängigkeiten installieren:
pip install --user -r requirements.txt
export PYTHONPATH= $PYTHONPATH : $PWD
pre-commit install
pre-commit autoupdatetouch .env
# Add environment variables to .env
OPENAI_API_BASE= " https://api.openai.com/v1 "
OPENAI_API_KEY= " " # https://platform.openai.com/account/api-keys
ANYSCALE_API_BASE= " https://api.endpoints.anyscale.com/v1 "
ANYSCALE_API_KEY= " " # https://app.endpoints.anyscale.com/credentials
DB_CONNECTION_STRING= " dbname=postgres user=postgres host=localhost password=postgres "
source .envJetzt sind wir bereit, das interaktive Notebook von RAG.Ipynb zu durchlaufen, um unsere LLM -Anwendung zu entwickeln und zu bedienen!
Llama-3-70b ) und private Endpunkte, die auf Anfrage erhältlich sind (1m kostenlose Token-Testversion).