パイプライン用に構築されたコマンドライン用のAI。
大規模な言語モデル(LLM)ベースのAIは、コマンドの出力を摂取し、フォーマットの結果をマークダウン、JSON、およびその他のテキストベースの形式で摂取するのに役立ちます。 MODSは、コマンドラインにAIの振りかけを追加し、パイプラインを人為的にインテリジェントにするツールです。
ローカライを地元で実行しているLLMSでうまく機能します。 Openai、Cohere、Groq、またはAzure Openaiを使用することもできます。
パッケージマネージャーの使用:
#macosまたはlinuxbrew install charmbracelet/tap/mods#windows(winget)winget install charmbracelet.mods#arch linux(btw)yay -s mods#nixnix -shell -p mods
sudo mkdir -p/etc/apt/keyrings curl -fssl https://repo.charm.sh/apt/gpg.key | sudo gpg - dearmor -o/etc/apt/keyrings/charm.gpgecho "deb [signed-by =/etc/apt/keyrings/charm.gpg] https://repo.charm.sh/apt/ * * * *" | sudo tee /etc/apt/sources.list.d/charm.list sudo apt update && sudo apt install mods
echo '[charm] name = charmbaseurl = https://repo.charm.sh/yum/enabled=1gpgcheck = 1gpkey=https://repo.charm.sh/yum/gpg.key' | sudo tee /etc/yum.repos.d/charm.repo sudo yumインストールmod
または、それをダウンロードしてください:
パッケージは、DebianおよびRPM形式で利用できます
Linux、MacOS、およびWindowsでバイナリを利用できます
または、 goでインストールするだけです。
github.com/charmbracelet/mods@latestをインストールします
すべてのパッケージとアーカイブには、Bash、ZSH、Fish、PowerShellの事前に生成された完了ファイルが付属しています。
ソースから構築した場合、次のように生成できます。
mods完了bash -h mods完了zsh -h mods完了FISH -H mods完了powershell -h
パッケージ(HomeBrew、Debsなど)を使用する場合、シェルが適切に構成されている場合、完了を自動的にセットアップする必要があります。
modsは、標準を読み取り、 mods引数で供給される迅速な序文で作動します。入力テキストをLLMに送信して結果を印刷し、オプションでLLMにマークダウンとして応答をフォーマットするように依頼します。これにより、コマンドの出力を「質問」する方法が与えられます。 MODSは、標準または個別にプロンプトを提供する引数でも動作します。
すべての機能の例とリストを必ずチェックしてください。
MODは、OpenAI互換のエンドポイントで動作します。デフォルトでは、MODSは、PORT mods --settingsで実行されているOpenAIの公式APIとLocalAIインストールをサポートするように構成されています。MODSを実行して、設定ファイルに追加のエンドポイントを設定できます。
会話はデフォルトでローカルに保存されます。各会話には、SHA-1識別子とタイトル( git !など)があります。
詳細については、 ./features.md features.mdを確認してください。
-m 、 --model :使用する大きな言語モデルを指定します。
-f 、 --format :LLMに、特定の形式で応答をフォーマットするように依頼します。
--format-as :出力の形式( --formatで使用)を指定します。
-P 、 --prompt :プロンプトにはstdinとargsを含める必要があります。
-p 、 --prompt-args :プロンプトにはargsのみを含める必要があります。
-q 、 --quiet :標準ERRへの出力エラーのみ。
-r 、 --raw :構文の強調表示なしで生の応答を印刷します。
--settings :設定を開く。
-x 、 --http-proxy :HTTPプロキシを使用してAPIエンドポイントに接続します。
--max-retries :Retriesの最大数。
--max-tokens :応答する最大トークンを指定します。
--no-limit :応答トークンを制限しないでください。
--role :使用する役割を指定します(カスタムロールを参照)。
--word-wrap :幅でラップ出力(デフォルトは80になります)
--reset-settings :設定をデフォルトに復元します。
-t 、 --title :会話のタイトルを設定します。
-l 、 --list :保存された会話をリストします。
-c 、 --continue :最後の応答または特定のタイトルまたはsha-1から続行します。
-C 、 --continue-last :最後の会話を続けます。
-s 、 --show :指定されたタイトルまたはsha-1の保存された会話を表示します。
-S 、 --show-last :以前の会話を表示します。
--delete-older-than=<duration> :指定された時間( 10d 、 1mo )よりも古い会話を削除します。
--delete :与えられたタイトルまたはSHA-1の保存された会話を削除します。
--no-cache :会話を保存しないでください。
--fanciness :誇らしさのレベル。
--temp :サンプリング温度。
--topp :トップP値。
--topk :トップK値。
役割により、システムプロンプトを設定できます。これがshell役割の例です。
役割:シェル:
- あなたはシェルの専門家です - あなたは何も説明しません - あなたはあなたが尋ねた問題を解決するために1つのライナーを単に出力するだけです - あなたは何も説明しません、コマンドのみ次に、 modsでカスタムロールを使用します。
mods - 現在のディレクトリ内のロールシェルリストファイル
MODSは、デフォルトでGPT-4を使用します。 GPT-3.5ターボに戻ります。
OPENAI_API_KEY環境変数を設定します。まだ持っていない場合は、OpenaiのWebサイトをつかむことができます。
または、[ AZURE_OPENAI_KEY ]環境変数を設定して、azure openaiを使用します。 Azureからキーをつかみます。
Cohereは、エンタープライズ最適化モデルを提供します。
COHERE_API_KEY環境変数を設定します。まだ持っていない場合は、Cohere Dashboardから入手できます。
ローカルAIを使用すると、モデルをローカルで実行できます。 MODSは、このチュートリアルのセットアップとしてGPT4ALL-Jモデルと連携します。
GROQは、LPU推論エンジンを搭載したモデルを提供します。
GROQ_API_KEY環境変数を設定します。まだ持っていない場合は、Groqコンソールから入手できます。
このプロジェクトについてのあなたの考えを聞きたいです。お気軽におめでとうございます。
ツイッター
フェディバース
不和
mit
魅力の一部。
チャーム热爱开源•チャームはオープンソースが大好きです