Finetune_LLMs
1.0.0
此存储库包含使用著名报价数据集微调大语言模型(LLM)的代码。
鉴定的支持方法是深速,洛拉或Qlora。
最初,当尚未将其添加到HuggingFace Transformer软件包中时,存储库下载并转换了GPTJ的模型权重。该代码仍然可以在Branch original_youtube下看到。
/quotes_dataset包含适当格式进行微调的数据集。请参阅repo以在此处制作此数据集
/finetuning_repo包含最初来自此处的存储库的代码,我已修改过这些代码,以使用更多模型和更多方法。
如果需要付费专业帮助,可以通过此电子邮件获得
在此处查看原始回购代码的旧视频以获取视频教程。
可以在此处看到一个更新的视频,用于使用HuggingFace模型
转到original_youtube分支您想查看代码,但我强烈建议您使用更多现代方法
更新的演练使用NVIDIA-DOCKER使头痛摆脱了大部分时间。
如果您有一个64位Linux系统,并且需要A100的驱动程序,则可以运行这样的命令来设置。
wget https://us.download.nvidia.com/tesla/515.86.01/NVIDIA-Linux-x86_64-515.86.01.run
然后,您将使用sudo运行下载的程序。
chmod 777 NVIDIA-Linux-x86_64-515.86.01.run
sudo ./NVIDIA-Linux-x86_64-515.86.01.run
build_image.sh构建docker映像。如果您收到有关无法找到Docker映像的错误,请更新到更新的CUDA版本。图像定期弃用。然后打开PR,以便您可以为他人解决此问题。构建Docker图像可能需要几分钟。run_image.sh 。该脚本运行刚刚构建的Docker映像,并将当前目录安装到Docker容器内部的/workspace 。系统中的所有GPU将通过。此外,为了防止每次运行此容器时下载模型,您的.cache也将通过。