Wenn Sie Repairllama in der akademischen Forschung verwenden, zitieren Sie bitte "Reparaturllama: Effiziente Darstellungen und fein abgestimmte Adapter für die Programmreparatur", Technischer Bericht, ARXIV 2312.15698, 2023.
@techreport { repairllama2023 ,
title = { RepairLLaMA: Efficient Representations and Fine-Tuned Adapters for Program Repair } ,
author = { Silva, Andr{'e} and Fang, Sen and Monperrus, Martin } ,
url = { http://arxiv.org/abs/2312.15698 } ,
number = { 2312.15698 } ,
institution = { arXiv } ,
}Dieses Repository enthält den Code, das Modell und die Ergebnisse, um das Papier "Repairlama: Effiziente Darstellungen und fein abgestimmte Adapter für die Programmreparatur" zu replizieren.
Es ist wie folgt strukturiert:
Alle fein abgestimmten Modelle sind auf Huggingface erhältlich. Hier finden Sie spezifische Links:
Die verarbeiteten feinstimmenden Datensätze werden auf dem Umarmungsface unter https://huggingface.co/datasets/assert-KTH/Repairllama-Datasets verfügbar gemacht. Es enthält die Datensätze, die für das Training der Reparaturlamlama -Modelle verwendet werden, eine Teilmenge pro Eingangs-/Ausgangsdarstellungspaar. Um die 30k..50K -Datensätze zu erhalten, filterten wir weiter, basierend auf der Token -Länge der Eingang + Ausgangspaare, die weniger als 1024 Token sind.
Wenn es Sie interessiert, können Sie diese auch auf unserer Umarmung finden:
Die Bewertungsbenchmarks sind Defekte4J V2, Humaneval-Java und Gitbug-Java.
Wir konzentrieren uns auf Einzelfunktionsfehler (dh Fehler, deren Entwickler-Patch ausschließlich eine Funktion ändert):
Beachten Sie, dass der ursprüngliche Humaner-Java einen doppelten Fehler enthält.