大規模な言語モデルからコードレビューを簡単に入手してください!
CRLLMは、開発者が最先端の大手言語モデル(LLM)からコードレビューを取得できるようにする強力なコマンドラインツールです。ローカルで実行されているLLMにOllamaを使用したり、ChatGpt、Hugging Face、Azureなどのクラウドサービスに接続したい場合でも、CRLLMはカバーしています。コードの品質を向上させ、潜在的なバグをキャッチし、開発ワークフローを強化するためにAI駆動型の提案を受け取ります。ベストプラクティス、バグが発生しやすい領域、および潜在的なリファクタリングに関する推奨事項を取得します。提案から、コードを改善する方法を学び、新しい洞察とテクニックを獲得してください。より多くの問題を事前にキャッチすることにより、人間のコードレビュー中に前後の必要性を減らします。
CRLLMを始めるには、これらの簡単なインストール手順に従ってください。
pipx install git+https://github.com/lukasrump/crllm.gitpipx install crllmCRLLMは、LLMコードレビューの複数のバックエンドをサポートしています。プロジェクトのルートに構成ファイルcrllm_config.tomlを追加して構成できます。プロジェクトを初期化するには、使用できます
crllm -i .このコマンドは、最も重要な設定をガイドします。 Wikiの設定オプションの詳細については、詳細を確認できます。
CRLLMは、ターミナルから簡単に使用できるように設計されています。以下は、ツールを活用する方法の例です。
ファイルまたはgitリポジトリの実行のコードレビューを実行するには:
crllm path/to/your/codefile.pyソースコンテキストでコードレビューを強化するには、 crllm_config.tomlでrag(検索充電生成)を有効にします:
[ rag ]
enabled = true
embedding_model = " all-minilm " # Specify the embedding model
src_path = " ./ " # Define the root path of your source code
src_glob = " **/*.py " # Use glob patterns to match source files (e.g., Python files)CRLLMは、 .crllm_ignoreファイルをサポートして、コードレビューから特定のファイルとディレクトリを除外します。これは.gitignoreに似ていますが、CRLLMのコードレビュープロセスに固有です。