Se você usar o Repairllama em pesquisa acadêmica, cite "Reparyllama: representações eficientes e adaptadores ajustados para reparo do programa", Relatório Técnico, ARXIV 2312.15698, 2023.
@techreport { repairllama2023 ,
title = { RepairLLaMA: Efficient Representations and Fine-Tuned Adapters for Program Repair } ,
author = { Silva, Andr{'e} and Fang, Sen and Monperrus, Martin } ,
url = { http://arxiv.org/abs/2312.15698 } ,
number = { 2312.15698 } ,
institution = { arXiv } ,
}Este repositório contém o código, o modelo e os resultados para replicar o artigo "Reparo: representações eficientes e adaptadores ajustados para reparo do programa"
Está estruturado da seguinte forma:
Todos os modelos de ajuste fino estão disponíveis no Huggingface, aqui estão links específicos:
Os conjuntos de dados de ajuste fino processado são disponibilizados no HuggingFace em https://huggingface.co/datasets/assert-kth/repairllama-datasets. Ele contém os conjuntos de dados usados para treinar os modelos Repairllama, um subconjunto por par de representação de entrada/saída. Para obter os conjuntos de dados de 30k..50k, fizemos ainda mais a filtragem com base no comprimento do token dos pares de entrada + saída, sendo menores de 1024 tokens.
Se isso lhe interessa, você também pode encontrá -los em nossa organização Huggingface:
Os benchmarks de avaliação são defeitos4J v2, Humaneval-Java e Gitbug-Java.
Nós nos concentramos em bugs de função única (ou seja, bugs cujo patch do desenvolvedor muda exclusivamente uma função):
Observe que o Humaneval-Java original contém um bug duplicado.