Если вы используете Repairllama в академических исследованиях, пожалуйста, укажите «Repairllama: эффективные представления и тонкие адаптеры для ремонта программы», Технический отчет, ARXIV 2312.15698, 2023.
@techreport { repairllama2023 ,
title = { RepairLLaMA: Efficient Representations and Fine-Tuned Adapters for Program Repair } ,
author = { Silva, Andr{'e} and Fang, Sen and Monperrus, Martin } ,
url = { http://arxiv.org/abs/2312.15698 } ,
number = { 2312.15698 } ,
institution = { arXiv } ,
}Этот репозиторий содержит код, модель и результаты для воспроизведения бумаги «Repairllama: эффективные представления и тонкие адаптеры для ремонта программы»
Это структурировано следующим образом:
Все тонко настроенные модели доступны на HuggingFace, вот конкретные ссылки:
Обработанные наборы данных с тонкой настройкой доступны на Huggingface по адресу https://huggingface.co/datasets/assert-kth/repairllama-datasets. Он содержит наборы данных, используемые для обучения моделей Repairllama, одно подмножество на пару входных/выходных представлений. Чтобы получить наборы данных 30K..50K, мы провели дальнейшую фильтрацию на основе длины токена входных + выходных пар, составляющих менее 1024 токенов.
Если это вас интересует, вы также можете найти их в нашей Org Huggingface Org:
Оценными критериями являются Defects4j V2, Humaneval-Java и Gitbug-Java.
Мы сосредоточены на однофункциональных ошибках (то есть ошибки, чьи патч разработчика исключительно изменяют одну функцию):
Обратите внимание, что оригинальная Humaneval-Java содержит дубликат.