Introduction rapide aux grands modèles de langue (apprentissage théorique et pratique de réglage fin)
Veuillez utiliser le fichier requirements.txt pour Python Dependency Package Installation:
pip install -r requirements.txtGénéralement, les versions GPU Driver et CUDA sont nécessaires pour répondre aux versions installées de Pytorch et TensorFlow.
La plupart des modèles de langage récemment récemment publiés utilisent la nouvelle version Pytorch V2.0 +, ce que Pytorch pense officiellement est 11,8 et les versions de pilotes GPU correspondants. Pour plus de détails, veuillez consulter la réponse minimale CUDA demandée par Pytorch.
En bref, il est recommandé d'installer directement la dernière version CUDA 12.3 actuelle. Pour plus de détails, veuillez consulter le progiciel d'installation officiel de Nvidia.
Une fois l'installation terminée, utilisez nvidia-smi pour afficher la version:
nvidia-smiFri Mar 1 11:16:55 2024
+-----------------------------------------------------------------------------+
| NVIDIA-SMI 529.08 Driver Version: 529.08 CUDA Version: 12.0 |
| -------------------------------+----------------------+----------------------+
| GPU Name TCC/WDDM | Bus-Id Disp.A | Volatile Uncorr. ECC |
| Fan Temp Perf Pwr:Usage/Cap | Memory-Usage | GPU-Util Compute M. |
| | | MIG M. |
| ===============================+======================+====================== |
| 0 NVIDIA GeForce ... WDDM | 00000000:01:00.0 Off | N/A |
| N/A 45C P8 6W / 30W | 0MiB / 4096MiB | 0% Default |
| | | N/A |
+-------------------------------+----------------------+----------------------+
+-----------------------------------------------------------------------------+
| Processes: |
| GPU GI CI PID Type Process name GPU Memory |
| ID ID Usage |
| ============================================================================= |
+-----------------------------------------------------------------------------+Afin d'utiliser l'API OpenAI, vous devez obtenir une clé API à la console OpenAI. Une fois que vous avez la clé, vous pouvez le définir comme une variable d'environnement:
Pour les systèmes basés sur UNIX tels que Ubuntu ou MacOS, vous pouvez exécuter la commande suivante dans le terminal:
export OPENAI_API_KEY= '你的-api-key 'Pour Windows, vous pouvez utiliser la commande suivante dans l'invite de commande:
set OPENAI_API_KEY=你的-api-keyÀ propos des exigences, vous pouvez le télécharger en fonction de la situation
pip install -r requirements.txtLa construction de l'environnement de développement comprend plusieurs pièces
MiniConda est un outil de gestion de l'environnement Python qui peut être utilisé pour créer et gérer plusieurs environnements Python. Il s'agit d'une alternative légère à Anaconda et n'inclut aucun outil IDE. MiniConda peut télécharger le package d'installation sur le site officiel. Vous pouvez également le télécharger à partir du site Web Mirror:
# 下载 Miniconda 安装包
$ wget https://mirrors.tuna.tsinghua.edu.cn/anaconda/miniconda/Miniconda3-latest-Linux-x86_64.sh
# 也可以使用curl命令下载
$ curl -O https://mirrors.tuna.tsinghua.edu.cn/anaconda/miniconda/Miniconda3-latest-Linux-x86_64.sh
# 安装 Miniconda
$ bash Miniconda3-latest-Linux-x86_64.shPendant le processus d'installation, certaines questions doivent être répondues, telles que le chemin d'installation, que ce soit pour ajouter des minicondes aux variables d'environnement, etc. Une fois l'installation terminée, le terminal doit être redémarré pour rendre la variable environnementale.
Vous pouvez utiliser la commande suivante pour vérifier que MiniConda est installée avec succès:
$ conda --versionLes fichiers de configuration MiniConDA sont stockés dans ~ / .Condarc. Vous pouvez les modifier manuellement en vous référant au document, ou vous pouvez utiliser la commande Conda Config pour les modifier.
# 配置清华镜像
$ conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/free/
$ conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/main/
$ conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud/conda-forge/
$ conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud/pytorch/
$ conda config --set show_channel_urls yes
# 查看~/.condarc配置
$ conda config --show-sources
channels:
- https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud/pytorch/
- https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud/conda-forge/
- https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/main/
- https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/free/
- defaults
show_channel_urls: True # 安装mamba
$ conda install -n base -c conda-forge mamba
# 安装micromamba
$ conda install -n base -c conda-forge micromambaEnsuite, vous pouvez utiliser la commande mamba ou micromamba au lieu de la commande conda.
# 创建虚拟环境,指定 Python 版本为 3.11
(base) $ conda create -n transformers python=3.11
# 激活 openai 环境
$ conda activate transformersS'il n'y a pas de description spéciale ci-dessous, toutes seront effectuées dans l'environnement Openai nouvellement créé ici.
Jupyter Lab est un environnement de développement interactif qui peut fonctionner dans un navigateur. Il prend en charge une variété de langages de programmation, notamment Python, R, Julia, etc. Jupyter Lab est fourni par Conda-Forge. Veuillez d'abord configurer l'image, puis l'installer à l'aide de la commande suivante:
(transformers) $ conda install jupyterlabHugging Face Transformers est une boîte à outils de traitement du langage naturel basée sur Pytorch et TensorFlow, qui fournit un grand nombre de modèles pré-formés qui peuvent être utilisés pour effectuer une variété de tâches PNL. Les transformateurs de face étreintes peuvent être installés via Conda:
(transformers) $ conda install -c huggingface transformersDocumentation d'installation: transformateurs de face étreintes
Les transformateurs doivent utiliser TensorFlow pour le raisonnement réel du modèle. La commande suivante installe les versions CPU et GPU de TensorFlow:
(transformers) $ pip install tensorflowSi vous utilisez un Mac, vous pouvez installer un plug-in en métal pour la puce M1 / M2, et vous pouvez également essayer quelques modèles plus petits:
(transformers) $ pip install tensorflow-metalDocumentation d'installation:
Les transformateurs doivent utiliser Pytorch pour le raisonnement réel du modèle. Les sources d'image Pytorch et Conda-Forge utilisées ont été configurées à l'étape précédente. Vous pouvez utiliser la commande suivante pour installer la version Pytorch correspondant à la version CUDA:
# Linux
# CUDA 11.8
(transformers) $ conda install pytorch torchvision torchaudio pytorch-cuda=11.8 -c nvidia
# CUDA 12.1
(transformers) $ conda install pytorch torchvision torchaudio pytorch-cuda=12.1 -c nvidia
# Mac
(transformers) $ conda install pytorch::pytorch torchvision torchaudioDocumentation d'installation: Pytorch
Lors du traitement des images, de l'audio et d'autres données, d'autres dépendances doivent être utilisées, notamment:
(transformers) $ conda install tqdm iprogress ffmpeg ffmpeg-python pillowJe vous souhaite progresser dans vos études