Navamaiを使用して、個人的、高速で高品質のAIで生産性とワークフローを充電します。端末を構成可能でインタラクティブで目立たない個人AIアプリに変えます。指先で15のLLMと7つのプロバイダーのパワー。マークダウン、VSコード、オブシディアン、およびGitHubのワークフローとペアになります。 3つの簡単なコマンドで生産的に速くなります。
コマンドはあなたが必要とするすべてです:だから、LLMサイエンスファンは私たちのキャッチフレーズでしゃれを得るでしょう。世界に変圧器モデルのアーキテクチャを紹介した有名な紙の戯曲です - 注意が必要です。 Navamaiを使用すると、お気に入りのターミナルまたはシェルを介した簡単なコマンドが、大規模または小さな言語モデルを希望に合わせて曲げるのに必要です。 Navamaiは、コマンドプロンプト内で豊富なUIを提供します。開くブラウザタブ、インストールするアプリ、コンテキストの切り替えはありません...純粋でシンプルで高速なワークフローだけです。 ask "create a table of planets"などの単純なコマンドで試してみて、端末が高速ストリーミング応答、マークダウンフォーマットされたテーブル、さらにはプロンプトがそれに応じてコードを必要とする場合はカラーハイライト付きのコードブロックのように端末が生き返るのを見る! Navamaiは、個人のAIワークフローのカスタマイズを支援する14のコマンドをリリースしました。
トップモデルとプロバイダー:プライベートモデルまたはホストされたフロンティアLLMを簡単に切り替えることができます。 Navamaiには、7人のプロバイダー(Ollama、Anthropic、Openai、Groq、Google、Bedrock、Perplexity)の15を超えるリーディングモデル(GPT 4o、Sonnet 3.5、Sonnet 3.5、Gemini 1.5 Pro、Mistral Nemo、Sonar Llama 3.1)の構成可能なサポートが付属しています。
Markdownワークフロー: Navamaiは、Markdownコンテンツ(単純なフォーマットコマンドを備えたテキストファイル)で動作します。そのため、VSコードや黒曜石などの多くの人気ツールで使用して、クラフトを強化するカスタムワークフローをすばやくシームレスに設計できます。
より少ないことでより多くのことをする:ナバマイは、一握りの強力なコマンドを学ぶので、箱から出して非常に簡単に使用できます。快適になると、1つの構成ファイルを変更し、ワークフローに合わせてNavamaiを調整するだけでNavamaiコマンドをカスタマイズできます。ナバマイのすべてが賢明なデフォルトを持っているため、すぐに開始されます。
独自のものにする:準備ができたら、コマンド、モデル、プロバイダー、プロンプト、モデルパラメーター、フォルダー、ドキュメントタイプなど、すべてが構成可能で拡張可能です。別の魔法のことは、生成AIへのインターフェイスが謙虚なコマンドプロンプトである場合に起こります。あなたはコントロールされているという感覚を経験するでしょう。ワークフロー、プライバシー、意図、およびアーティファクトを制御します。ナバマイとの個人的なAIワークフローを完全に制御しています。
Navamaiを初期化するフォルダーに移動します。これは、Obsidian Vault、VC Code Projectフォルダー、または空のフォルダーでもあります。
pip install -U navamai # upgrade or install latest NavamAI
navamai init # copies config file, quick start samples
navamai id # identifies active provider and model
ask " How old is the oldest pyramid? " # start prompting the modelモデルプロバイダーキーをセットアップする必要があります。環境config〜 ~/.zshrcを編集してください。
export ANTHROPIC_API_KEY= # https://docs.anthropic.com/en/api/getting-started
export OPENAI_API_KEY= # https://openai.com/index/openai-api/
export GROQ_API_KEY= # https://console.groq.com/keys
export GEMINI_API_KEY= # https://ai.google.dev/gemini-api
export PERPLEXITY_KEY= # https://www.perplexity.ai/settings/apiモデルを使用したくない場合は、 model-mappingとprovider-model-mappingセクションのnavamai.ymlから対応するエントリを削除するだけです。また、他のモデル構成が利用可能なモデルのみを参照することを確認してください。
ローカルモデルの場合、Ollamaをインストールし、実行する最新モデルをダウンロードします。
これで、すべてのモデルとプロバイダーをテストする準備が整いました。
navamai test ask
navamai test visionPython環境がすでに機能している場合は、このセクションをスキップしてください。
まず、Pythonパッケージマネージャーが最新のものにアップグレードされた状態で、システム上の最新のPythonを実行する必要があります。
python --version
# should return Python 3.12.x or higher as on Sep'24pyenvバージョンマネージャーをセットアップします。最初に、VSコードワークスペース、黒曜石のボールト、またはナバマイをインストールするフォルダーにディレクトリに変更します。次に、仮想環境を作成します。
python -m venv envこれで、仮想環境をアクティブにすることができます。あなたが現在仮想環境で実行されていることを示すために(env)が付いたディレクトリがあることに気付くでしょう。
. env/bin/activate deactivateコマンドを使用して仮想環境を離れる。以前と同じコマンドを使用して再入力します。
これで、Navamaiをインストールする準備ができました。
* navamai 、 ask 、 image 、およびrefer 、Navamaiをインストールするときに利用できる4つのトップレベルコマンドであることに注意してください。
| 指示 | 例と説明 |
|---|---|
| *聞く | ask "your prompt"LLMに高速でサクサクした(デフォルトまで300ワードまで)、シングルターン応答を促します ask構成されたプロンプトフォルダーを参照し、ユーザーが実行するプロンプトテンプレートをリストします。 |
| 監査 | navamai audit洞察に富んだコマンドラインダッシュボードとマークダウンレポートで、時間の経過とともにナバマイの独自の使用を分析します。 |
| config | navamai config ask save trueコマンドラインから navamai.ymlファイル構成を編集します |
| 集める | navamai gather "webpage url"メニュー、サイドバー、フッターなしで、ウェブページから記事をきれいにこすります。画像が含まれています。 HTMLソースと同様に、マークダウンがフォーマットされたときに保存します。 refer gatherを使用して、スクレイプされたマークダウンコンテンツを参照してください。navamai visionコマンドを使用して、スクレイプされた画像でビジョンを使用します。 |
| *参照する | refer text-to-extract一連の生のテキストファイルを参照し、カスタムプロンプトを実行して新しい構造化コンテンツを抽出します。 refer inline-prompts-to-run既存のドキュメントを拡張、変更、変換するために、テキスト内にインラムを埋め込んだプロンプトを実行します。 refer intents意図テンプレート内で一連の意図とプロンプトを拡張する refer your-command既存の refer-existingモデル構成をコピーして変更するだけで、コマンドを参照する独自の拡張機能を構成できます。 |
| 走る | navamai runコードブロックを使用してマークダウンファイルの Codeフォルダーを参照し、1つのコマンドでアプリを作成、セットアップ、および実行します。コードブロックを持つ Codeフォルダーマークダウンファイルは、 askコマンドを実行してCreate Vite App.mdされます。 |
| id | navamai idaskコマンドの現在のプロバイダーとモデルを識別しますnavamai id section-name特定のセクションで定義されているプロバイダーとモデルを識別します |
| *画像 | image画像を生成するには、プロンプトテンプレートを選択します。 image "Prompt for image to generate"画像を生成するように求められます。 |
| init | navamai init任意のフォルダーでナバマイを初期化します。 navamai.ymlデフォルトの構成とクイックスタートインセントと埋め込みフォルダーとファイルをコピーします。上書き前にチェックします。 -forceオプションを使用して、ファイルとフォルダーを上書きします。 |
| 意図 | navamai intents "Financial Analysis"テンプレート内のインテントのリストからインタラクティブに選択して、コンテンツエルミングを参照してください |
| マージ | navamai merge "Source File"プレースホルダータグで Source File updated [merge here]またはmerge構成で定義されたカスタムとして、2つのファイルをSource File mergedにマージします。 refer inline-prompts-to-runとともに使用して、コンテキストの長いテキストを編集するときに処理されたトークンの数を減らしますが、セクションのみを更新します。 |
| スプリット | navamai split "Large File"このコマンドを使用して、ターゲットモデルコンテキストの指定された比率内で大きなファイルをチャンクに分割します。構成の splitセクションでターゲットモデルと比率を構成できます。元のファイルは手つかずのままであり、同じ名前とpart #接尾辞を持つ新しいファイルが作成されます。 |
| テスト | navamai test asknavamai.yml configで定義されているすべてのプロバイダーとモデルを使用してNavamaiコマンドをテストし、テスト概要を提供します。navamai test visionテストビジョンモデル。 |
| トレンド | navamai trendsモデルとプロバイダー全体の ask and visionコマンドのためにnavamai test実行に基づいたレイテンシとトークンの長さの傾向を視覚化します。 --days 7コマンドオプションを使用して、何日もトレンドできます。 |
| 検証します | navamai validate "Financial Analysis"別のモデルを実行する以前に生成された埋め込みを検証し、検証されたコンテンツと元のコンテンツの割合の差を報告します。 |
| ビジョン | navamai vision -p path/to/image.png "Describe this image"ローカルパス(-p)、URL(-u)、またはカメラ(-c)の画像でビジョンモデルを実行し、プロンプトに基づいて応答します。 |
ターミナルに簡単なコマンドを使用してNavamaiを使用すると、ObsidianやVSコードなどのマークダウンツールを使用して、シンプルで強力な個人AIコンテンツマネージャーを作成できます。たとえば、部分的なブログの投稿を書いたり、シードのアイデアを書いたり、意図とプロンプトのリストから始めたり、少し気を散らしていた講義から部分的なメモをキャプチャできます。
次に、 navamai.yml内のカスタムrefer-section構成と組み合わせてreferコマンドを使用して、この部分的、不完全、またはシードコンテンツを完全な投稿、メモ、記事、プロンプトテンプレート、さらにはよく研究された論文に拡張できます。モデルとプロバイダーの選択を試し、ドキュメントタイプごとに構成のモデル設定を調整し、コンテンツのカスタムフォルダーを定義し、ドキュメントのタイプに基づいて希望する結果を正確に取得するためにドキュメント固有のシステムプロンプトを指定できます。 1つの簡単なコマンドreferを覚えておく必要がありますが、すべて設定されています。
簡単な例として、スタートアップ成長戦略に関する部分的に記述されたサンプルの投稿を含むPostsフォルダーをチェックしてください。次に、投稿を拡張するためにnavamai.yml内の関連する構成セクションを表示します。
refer-post-to-update :
lookup-folder : Posts
max-tokens : 4000
model : sonnet
provider : claude
save : true
save-folder : Posts
system : You will be given a partially written blog post on a topic.
Your job as an expert blog writer is to expand the post...
temperature : 0.5簡潔にするために、ここに完全なシステムプロンプトをリストしていないことに注意してください。ワークフローに合わせて明らかに変更できます。今のところ、Navamaiを初期化した作業フォルダー内でrefer post-to-update "startup-growth-hacking"てください。すぐにモデル応答が端末にストリーミングを開始します。拡張された投稿は、 updatedプレフィックスを使用してPostsフォルダーに保存されるため、オリジナルと比較できます。
研究論文、クラスノート、料理のレシピなどのような新しいドキュメントタイプを作成するために、必要なのは、 refer-post-to-update refer-intents-to-expandのセクションの1つをrefer-notes-to-summarizeカスタマイズすることだけです。次に、新しいドキュメントタイプでカスタムコマンドを実行してrefer notes-to-summarize "your-notes-file" 、同じ結果を達成できます。
他のNavamaiコマンドと組み合わせると、このワークフローはさらに強力になります。例として、一連の意図とプロンプトのドキュメントテンプレートを単純なマークダウンとして定義することから始めます。たとえば、 Financial AnalysisまたはProduct Managementここに示します。次に、いくつかの意図を見出しのように追加します。マクロ要因は、 Top Companies by ROCE Macro Factors Impact Stocks 。次に、これらの意図の下に単純なプロンプトを追加して、コンテンツを生成します。 Navamaiを使用して、コマンドrefer intents-to-expand "Financial Analysis"コマンドを参照するドキュメントテンプレートの意図とプロンプトのセットを拡張できるようになりました。モデルは、より関連する意図とプロンプトをブレインストーミングします。
次にnavamai intents-to-expand "Financial Analysis"を実行し、コンテンツが埋め込まれているものとして生成する意図のリストの中から選択します。応答はEmbedsフォルダーの下に自動的に保存され、埋め込みはドキュメントテンプレートに即座にリンクされます。すすぎ、繰り返します。
このワークフローは非常に速く本当に便利になる可能性があります。各テンプレートには埋め込みがリンクされているため、黒曜石のグラフビューを使用してリンクを視覚化できます。クリエイティブおよびリンク関連のテンプレートを取得したり、より多くの意図で生成された埋め込みを強化することもできます。もちろん、これはすべての素晴らしい黒曜石プラグインを使用して、ウェブサイト、PDFなどを生成できることを意味します。あなたの創造性 +オブシディアン +ナバマイ=魔法!
Navamaiには、5つのプロバイダー(Ollama、Anthropic、Openai、Groq、Google)の15を超える主要なモデルの構成可能なサポートが付属しています。 navamai testコマンドを使用して、すべてのプロバイダーとモデルの組み合わせでNAVAMAIコマンドのそれぞれを実行し、モデルテストと評価の結果の要約で応答できます。これを使用して、モデルとプロバイダーをすばやく比較し、構成内の新しいモデルまたはプロバイダーを追加または削除するときに。
このコマンドは、モデル応答時間(レイテンシ)、応答の品質(システムに従うこととプロンプトの指示に従う)、応答の精度、および同じプロンプトのトークン長(コスト)を比較する場合に非常に便利です。 testセクションでnavamai.yml内でテストプロンプトを構成できます。
以下は、 navamai test visionコマンドを実行し、結果としてテストの概要を実行した例です。私はこのデフォルトのプロンプトと画像の画像を共有しています。約150〜160人の人々が円に近くに立っており、モデルに数を数えるように依頼しています。適切な数は150〜160です。これを使用して、応答に基づいて各モデルの相対的な精度を計算できます。応答がシステムプロンプトにどの程度密接に従うか、ユーザープロンプトは応答の品質を示しています。
また、応答時間がモデルサイズに比例しているように見えることに気付くこともできます。クロードの場合、opus> sonnet> haiku。 Geminiの場合、Pro> Flash。 Openaiの場合、gpt-4o> gpt-4-mini。
同様に、すべてのモデルとプロバイダーでテストするためにnavamai test askコマンドを実行できます。この実行では、GROQが応答時間に関して最も速いプロバイダーの1つであることがわかります。
もちろん、複数のテストの実行にわたって変化する可能性のあるネットワークレイテンシなど、モデルサイズやアーキテクチャ以外のレイテンシに影響を与える複数の要因があるため、応答時間のより良い直観を得るには複数のテスト実行が必要になる場合があります。
各navamai testコマンドは、TimestampとProvider-ModelによってMetricsフォルダーのテスト概要データを保存します。時間が経つにつれて、レイテンシとトークンカウントメトリックのトレンドを視覚化して、モデルが一貫してパフォーマンスを発揮しているかどうかを確認できます。 navamai trendsコマンドを実行して、7日間トレンドを表示します(デフォルト)。
視覚化は、Sparklinesを使用して、時間の経過とともにデータの傾向を示します。これを使用して、パフォーマンスの傾向に基づいてモデルをいつ切り替えるかを決定します。
複数のモデルを並べて比較したいですか?必要なのは、複数のシェルまたは端末インスタンスを開くことだけです。これらのそれぞれで、1つずつ、モデルを変更し、同じask "prompt"を実行し、結果を並べて比較します。単純!
Navamaiコマンドは、実行するたびに現在のフォルダーでnavamai.yml構成を使用するため、構成ファイルを複数のフォルダーにコピーしてコマンドを実行するだけで、より複雑な並列実行、マルチモデル、クロスプロバイダーワークフローを作成できます。このようにして、1つのフォルダーと端末のローカルモデルでいくつかの長い実行タスクを実行できます。あなたが別のものであなたの日々のワークフローをしている間。等々。
コマンドプロンプト内でビジネスができる行動マーケティングや成長はありません。ワークフローは、自分のフィット感を導きます。最速モデルプロバイダー(Llama 3.1を含むGROQ)、または現在最も有能なモデル(Sonnet 3.5またはGPT-4O)、またはラップトップ上の最新の小さなモデル(ミストラルNEMO)、または最大のコンテキストのモデル(Gemini 1.5 Flash)を実行します。高速wifiまたはno-wifi(ローカルモデルを使用)で実行され、制約はありません。すぐに検索、調査、Q&Aを学び、後で保存するアーティファクトのセットを生成します。これらのワークフローのいずれかに切り替えることは、構成ファイルにいくつかの変更またはターミナルで覚えやすいコマンドをいくつか変更します。
モデルスイッチングコマンドを簡素化するために、カスタムモデル名を実際のモデルバージョンマッピングに構成することもできます。次のマッピングを使用すると、モデルを切り替えるコマンドはnavamai config ask model llamaまたはnavamai config intents model haikuなどです。
model-mapping :
# Claude models
sonnet : claude-3-5-sonnet-20240620
opus : claude-3-opus-20240229
haiku : claude-3-haiku-20240307
# Ollama models
llama : llama3.1
gemma : gemma2
mistral : mistral-nemo
# Groq models
groq-mixtral : mixtral-8x7b-32768
groq-llama : llama2-70b-4096
# OpenAI models
gpt4mini : gpt-4o-mini
gpt4o : gpt-4o
# Gemini models
gemini-pro : gemini-1.5-pro
gemini-flash : gemini-1.5-flash 信頼できるモデルとプロバイダーを決定するか、ラップトップでLLMをローカルに実行することを選択します。あなたは、あなたのデータと好みがどのようにプライベートになっているかを制御しています。 Navamaiは、人類、Openai、Google、Metaの最先端モデルをサポートしています。ラップトップのローカルモデルプロバイダーとしてホストされたプロバイダーまたはオラマを選択できます。 navamai config ask model llama 。
各コマンドにマッピングされたカスタムモデル構成セットをロードすることもできます。これらをnavamai.ymlファイルで構成します。 navamai ask 、 navamai intentsコマンドがローカルおよびホストされたモデルプロバイダーを使用して異なる動作をするかを制約する例を以下に示します。
ask :
provider : ollama
model : mistral
max-tokens : 300
save : false
system : Be crisp in your response. Only respond to the prompt
using valid markdown syntax. Do not explain your response.
temperature : 0.3
intents :
provider : claude
model : sonnet
max-tokens : 1000
save : true
folder : Embeds
system : Only respond to the prompt using valid markdown syntax.
When responding with markdown headings start at level 2.
Do not explain your response.
temperature : 0.0 Navamaiは、 trail.ymlファイルにコマンド、プロンプト、テンプレート、ルックアップフォルダー、保存されたファイルのトレイルを保存します。 navamai auditコマンドを使用していつでもこれを視覚化して、時間の経過とともにナバマイの使用の洞察を得ることができます。
あなたの意図は、実行したいタスク、達成したい目標、実現したい計画、あなたが下したい決定、または答えたい質問です。あなたはあなたの意図であなたのすべてのナバマイの経験をコントロールします。テキストファイルのタスクの単純なアウトラインとして意図を保存できます。必要なときにそれらを思い出すことができます。フィット感のあるときに、意図のモデルを実行できます。意図に基づいて結果を保存できます。
別のモデルからの検証を使用して、1つのLLMによって生成されたコンテンツを検証できます。 refer intentsコマンドを実行して、埋め込みの最初のパスを生成した後にのみValidateコマンドを実行することを確認してください。 navamai validate "Financial Analysis" 。検証用のワークフローは、意図の拡張に似ています。この場合にのみ、検証モデル構成は、使用するモデルとプロバイダーを決定します。検証プロンプトを変更して、ユースケースに関連する特定のものを確認することもできます。 diffは、類似性スコアリングを使用してDIFF比較を行うときに、新しいライン、ホワイトスペース、またはマークダウンフォーマットを削除する元のテキストおよび検証済みのテキストで計算されます。これを使用して、生成されたコンテンツの品質検証を自動化します。