crllm
v0.5.0
毫不費力地從大語言模型中獲得代碼評論!
CRLLM是一種強大的命令行工具,使開發人員能夠從最新的大語言模型(LLMS)獲得代碼評論。無論您想將Ollama用於本地運行的LLM,還是連接到諸如Chatgpt,Hugging Face和Azure之類的雲服務,Crllm都可以覆蓋您。提高您的代碼質量,捕獲潛在的錯誤,並收到AI驅動的建議,以增強您的開發工作流程。獲取有關最佳實踐,容易出現蟲子區域和潛在重構的建議。從建議中學習如何改進您的代碼,獲得新的見解和技術。在人類法規審查期間,通過提前捕獲更多問題來減少對來源的需求。
要開始使用CRLLM,請按照以下簡單的安裝步驟:
pipx install git+https://github.com/lukasrump/crllm.gitpipx install crllmCRLLM支持LLM代碼評論的多個後端。您可以通過在項目根部添加配置文件crllm_config.toml來配置它。要初始化您的項目,您可以使用
crllm -i .此命令指導您通過最重要的設置。您可以在Wiki中找到有關設置選項的更多信息。
CRLLM的設計易於從您的終端中使用。以下是如何利用該工具的一些示例。
為文件或git存儲庫進行執行代碼審核:
crllm path/to/your/codefile.py為了通過源上下文增強代碼評論,請在crllm_config.toml中啟用抹布(檢索效果的生成):
[ rag ]
enabled = true
embedding_model = " all-minilm " # Specify the embedding model
src_path = " ./ " # Define the root path of your source code
src_glob = " **/*.py " # Use glob patterns to match source files (e.g., Python files)CRLLM支持一個.crllm_ignore文件,以從代碼評論中排除特定文件和目錄。這類似於.gitignore ,但特定於CRLLM的代碼審核過程。