repairllama
1.0.0
学術研究で修理用ラマを使用する場合は、「修理:プログラム修理のための効率的な表現と微調整されたアダプター」を引用してください。テクニカルレポート、ARXIV 2312.15698、2023。
@techreport { repairllama2023 ,
title = { RepairLLaMA: Efficient Representations and Fine-Tuned Adapters for Program Repair } ,
author = { Silva, Andr{'e} and Fang, Sen and Monperrus, Martin } ,
url = { http://arxiv.org/abs/2312.15698 } ,
number = { 2312.15698 } ,
institution = { arXiv } ,
}このリポジトリには、コード、モデル、および結果が含まれています。
次のように構成されています。
すべての微調整されたモデルは、Huggingfaceで利用できます。ここに特定のリンクがあります。
処理された微調整データセットは、https://huggingface.co/datasets/assert-kth/repairllama-datasetsのHuggingfaceで利用可能になります。これには、Repairllamaモデルのトレーニングに使用されるデータセットが含まれています。 30k..50kのデータセットを取得するには、入力 +出力ペアのトークン長に基づいて1024トークン未満のトークンに基づいてさらにフィルタリングを行いました。
それがあなたに興味を持っているなら、あなたは私たちの抱きしめられたフェイスの組織でこれらを見つけることができます:
評価ベンチマークは、欠陥4J V2、Humanval-Java、およびGitBug-Javaです。
単一機能バグに焦点を当てています(つまり、開発者パッチが1つの関数のみを変更するバグ):
元のHumanval-Javaには重複したバグが含まれていることに注意してください。