Este projeto tem como objetivo ajustar o modelo de idioma Flan-T5 usando a Biblioteca Transformers do Hugging Face. Seguindo estas etapas, você pode ajustar o modelo e usá-lo para inferência.
Antes de começar, verifique se você tem o seguinte:
Clone este repositório para sua máquina local.
git clone https://github.com/mltrev23/Fine-Tuning-LLaMA-2/Instale os pacotes necessários usando o seguinte comando:
pip install -r requirements.txtExistem quatro métodos de ajuste fino disponíveis:
Ajuste fino aditivo : adiciona camadas para treinar.
python additive-fine-tuning.pyAjuste completo : treina todos os pesos do modelo.
python full-fine-tuning.pyAjuste fino seletivo : escolhe camadas específicas do modelo original para treinar.
python selective-fine-tuning.pyModelo Tuneamento fino : usa um modelo predefinido para treinamento. O modelo pode ser modificado conforme necessário.
Para ingerir seus próprios dados para ajuste fino, modifique o código em seus scripts para carregar seu conjunto de dados. Aqui está um exemplo de carregar um conjunto de dados de texto:
from transformers import LineByLineTextDataset
dataset = LineByLineTextDataset ( tokenizer = tokenizer , file_path = 'datasets/bittensor.txt' , block_size = 128 )Para realizar inferência usando o modelo FLAN-T5 ajustado, você pode usar os seguintes scripts:
Gere o uso de passagem para a frente : este script demonstra geração de texto usando uma abordagem de passagem direta.
python generate-using-forward.pyScript de inferência principal : Este script fornece uma maneira direta de gerar saídas a partir do modelo.
python main.py Você pode modificar o texto de entrada no arquivo main.py para testar o modelo:
input_text = [ "What is FAANG?" ]Isso gerará uma saída com base na entrada fornecida.
Sinta -se à vontade para modificar os scripts conforme necessário para suas tarefas e conjuntos de dados específicos. Se você encontrar algum problema, verifique a documentação do Face Hugging ou procure ajuda da comunidade.
Sinta -se à vontade para ajustar ainda mais as seções com base em suas necessidades específicas!