Jika Anda menggunakan Repairllama dalam penelitian akademik, silakan kutip "Repairllama: Representasi yang efisien dan adaptor yang disesuaikan untuk perbaikan program", Laporan Teknis, ARXIV 2312.15698, 2023.
@techreport { repairllama2023 ,
title = { RepairLLaMA: Efficient Representations and Fine-Tuned Adapters for Program Repair } ,
author = { Silva, Andr{'e} and Fang, Sen and Monperrus, Martin } ,
url = { http://arxiv.org/abs/2312.15698 } ,
number = { 2312.15698 } ,
institution = { arXiv } ,
}Repositori ini berisi kode, model, dan hasil untuk mereplikasi kertas "Repairllama: Representasi yang efisien dan adaptor yang disesuaikan untuk perbaikan program"
Itu disusun sebagai berikut:
Semua model fine-tuned tersedia di Huggingface, berikut adalah tautan khusus:
Kumpulan data penyempurnaan yang diproses tersedia di Huggingface di https://huggingface.co/datasets/assert-kth/repairllama-datasets. Ini berisi set data yang digunakan untuk melatih model Repairllama, satu subset per pasangan representasi input/output. Untuk mendapatkan dataset 30K..50K, kami melakukan penyaringan lebih lanjut berdasarkan token panjang input + pasangan output yang kurang dari 1024 token.
Jika menarik minat Anda, Anda juga dapat menemukannya di org huggingface kami:
Tolok ukur evaluasi adalah cacat4j v2, humaneval-java, dan gitbug-java.
Kami fokus pada bug fungsi tunggal (yaitu bug yang patch pengembangnya secara eksklusif mengubah satu fungsi):
Perhatikan bahwa Humaneval-Java asli berisi bug duplikat.