シンプルさ、カスタマイズ、開発者の生産性のために設計されています。
概要
デモ
特徴
はじめる
構成
例
貢献
重要
詳細なガイドとチュートリアルについては、公式ドキュメントをご覧ください。
readme-aiは、堅牢なリポジトリ処理エンジンと高度な言語モデルを使用して、ReadMe Markdownファイルを自動的に生成する開発者ツールです。コードベースへのURLまたはパスを提供するだけで、適切に構造化された詳細なREADMEが生成されます。
なぜreadme-ai?
このツールは、開発者向けのドキュメントプロセスを合理化するように設計されており、高品質のREADMEファイルを確保しながら時間と労力を節約します。重要な利点は次のとおりです。
AI搭載:インテリジェントコンテンツ生成のための言語モデルを活用します。
一貫性:プロジェクト間で清潔で標準化されたドキュメントを確保します。
カスタマイズ:プロジェクトの要件に合わせて出力を調整します。
言語不可知論者:ほとんどのプログラミング言語/フレームワークで動作します。
時間を節約: 1分以内に包括的なReadmesを生成します。
コマンドラインから走る:
ブラウザで直接実行する:
自動ドキュメント:コードベースから包括的なREADMEファイルを自動的に生成します。
カスタマイズ可能な出力:スタイリング、フォーマット、バッジ、ヘッダーデザイン、およびその他の設定を調整します。
柔軟なバックエンド: OpenAI 、 Ollama 、 Anthropic 、 Google Geminiとシームレスに統合。
言語不可知論者:幅広いプログラミング言語とプロジェクトタイプと互換性があります。
オフラインモード:外部API呼び出しなしで、ボイラープレートREADMEファイルをオフラインで作成します。
ベストプラクティス:マークダウンのベストプラクティスを順守し、クリーンで専門的なドキュメントを保証します。
readme-aiによって作成されたいくつかのカスタマイズを見てみましょう。
| ピップ ほとんどのユーザーに推奨される方法: pip PIPインストールreadmeai PIPX PIPXを使用して、孤立した環境で pipxインストールreadmeai UV UVを使用して、単一のコマンドで uv UVツールインストールreadmeai Dockerコンテナ化された環境で docker docker pull zeroxeli/readme-ai:最新 ソースからクリックして手順を展開します
または、以下のBASHスクリプトを使用してプロジェクトをセットアップできます。 バッシュ
または、 詩
重要 人類およびGoogle Geminiのクライアントを使用するには、追加の依存関係が必要です。次の追加のエキストラでパッケージをインストールします。
? CLIを実行します1.環境変数を設定します Openaiで: openai_api_key = <your_api_key>#またはWindowsユーザーの場合:openai_api_key = <your_api_key>を設定します 追加のプロバイダー(Ollama、Anthropic、Google Gemini)オラマOllama APIのセットアップの詳細については、Ollamaのドキュメントを参照してください。これが基本的な例です。
人類
Google Gemini
2。readmeを生成します 次のコマンドを実行し、リポジトリURLを独自のものに置き換えます。 ❯readmeai - repository https://github.com/eli64s/readme-ai-api openai 重要 デフォルトでは、 ❯readmeai -api ollama-model llama3 - repository https://github.com/eli64s/readme-ai ❯readmeai -API人類-m claude-3-5-sonnet-20240620 -r https://github.com/eli64s/readme-ai ❯readmeai -api gemini -m gemini-1.5-flash -r https://github.com/eli64s/readme-ai readmeai - repository/path/to/your/project その他のカスタマイズオプションを追加します: readmeai - repository https://github.com/eli64s/readme-ai
-output readmeai.md
-api openai
- モデルGPT-4
-Badge-Color A931ec
- バッジスタイルのフラットスクエア
- ヘッダースタイルのコンパクト
- トックスタイルの折り目
- 温度0.9
-Tree Depth 2
-image llm
- エモジスDockerOpenAIクライアントでDockerコンテナを実行します。 docker run -IT -RM
-e openai_api_key = $ openai_api_key
-v "$(pwd)":/app zeroxeli/readme-ai:最新
-repository https://github.com/eli64s/readme-ai
-api openaiソースからクリックして手順を展開しますバッシュBashスクリプトを使用してソースからプロジェクトをインストールした場合、次のコマンドを実行します。
詩
流線ブラウザで直接readme-aiを試してみてください。インストールは必要ありません。詳細については、readme-ai-streamlitリポジトリを参照してください。 テストPytestおよびNoxフレームワークは、開発とテストに使用されます。 詩を使用して依存関係をインストールします。 ❯詩のインストール - 開発、テスト pytestを使用してユニットテストスイートを実行します。 testテストを行います NOXを使用して、Python 3.9、3.10、3.11、および3.12に対してテストスイートを実行します。 test-noxを作成します ヒント NOXは、複数のPython環境でのテストを自動化する自動化ツールです。さまざまなPythonバージョン間の互換性を確保するために使用されます。 構成これらのCLIオプションを使用して、README世代をカスタマイズします。
次のコマンドを実行して、利用可能なすべてのオプションを表示します。 ❯readmeai - ヘルプ 構成オプション、例、およびベストプラクティスの詳細については、公式ドキュメントをご覧ください。 例さまざまな技術スタックでReadMe-AIによって生成されたReadMeファイルの例を表示します。
例ディレクトリで追加のREADMEの例を見つけます。 ロードマップ
貢献貢献は大歓迎です!開始するために寄稿ガイドを読んでください。
謝辞
ライセンスCopyright©2023 readme-ai。 | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||