Alpaca 350M Fine Tuned
1.0.0
专业与工作有关的项目
在这个项目中,我提供了代码和一本合同的笔记本,以促进了最初在斯坦福大学开发的羊驼350m参数模型的微调过程。进行微调的特定模型的参数约为3.5亿个参数,这是较小的羊驼模型之一(比我以前的微型模型小)。
该模型使用低级适应性LORA的计算资源和培训参数较少。我们使用bitsandbytes以8位格式设置和运行,因此可以用于合作制度。此外,HuggingFace的PEFT库用于微调模型。
超级参数:
原始模型的信用:Qiyuan GE
微调模型:Ryanair/羊驼-350m-Fine-Fine-tuned(Huggingface)