crllm
v0.5.0
毫不费力地从大语言模型中获得代码评论!
CRLLM是一种强大的命令行工具,使开发人员能够从最新的大语言模型(LLMS)获得代码评论。无论您想将Ollama用于本地运行的LLM,还是连接到诸如Chatgpt,Hugging Face和Azure之类的云服务,Crllm都可以覆盖您。提高您的代码质量,捕获潜在的错误,并收到AI驱动的建议,以增强您的开发工作流程。获取有关最佳实践,容易出现虫子区域和潜在重构的建议。从建议中学习如何改进您的代码,获得新的见解和技术。在人类法规审查期间,通过提前捕获更多问题来减少对来源的需求。
要开始使用CRLLM,请按照以下简单的安装步骤:
pipx install git+https://github.com/lukasrump/crllm.gitpipx install crllmCRLLM支持LLM代码评论的多个后端。您可以通过在项目根部添加配置文件crllm_config.toml来配置它。要初始化您的项目,您可以使用
crllm -i .此命令指导您通过最重要的设置。您可以在Wiki中找到有关设置选项的更多信息。
CRLLM的设计易于从您的终端中使用。以下是如何利用该工具的一些示例。
为文件或git存储库进行执行代码审核:
crllm path/to/your/codefile.py为了通过源上下文增强代码评论,请在crllm_config.toml中启用抹布(检索效果的生成):
[ rag ]
enabled = true
embedding_model = " all-minilm " # Specify the embedding model
src_path = " ./ " # Define the root path of your source code
src_glob = " **/*.py " # Use glob patterns to match source files (e.g., Python files)CRLLM支持一个.crllm_ignore文件,以从代码评论中排除特定文件和目录。这类似于.gitignore ,但特定于CRLLM的代码审核过程。