Finetune LLAMA 2 On Your DataSet AutoTrain From Hugging Face
1.0.0
Este projeto demonstra como ajustar o modelo LLAMA-3.1-8B usando adaptadores LORA, aplicar modelos de bate-papo e salvar o modelo para inferência. O modelo é treinado em dados locais, otimizado para treinamento com eficiência de parâmetros e implantado no hub de face abraçados.
Para executar este projeto, você precisará instalar os pacotes necessários. Você pode configurar isso no Google Colab ou em seu ambiente local:
pip install torch transformers datasets pandas unsloth trl