使用Navamai通過個人,快速和優質的AI來增強您的生產力和工作流程。將您的終端變成可配置,交互式和不引人注目的個人AI應用程序。您的手指技巧的15個LLM和7個提供商的功率。在Markdown,VS代碼,黑曜石和GitHub中與工作流程配對。通過三個簡單命令快速生產。
命令就是您所需要的:因此,LLM科學迷將在我們的標語中獲得雙關語。這是著名論文上的一部戲劇,將世界介紹給了變壓器模型架構 - 您需要的全部。使用Navamai,通過您喜歡的終端或外殼進行簡單的命令,您需要將大型或小語言模型彎曲為您的意願。 Navamai在您的命令提示符中提供了一個豐富的UI。沒有瀏覽器選項卡要打開,沒有安裝應用程序,沒有上下文切換...只是純,簡單,快速的工作流程。嘗試使用一個簡單的命令,例如ask "create a table of planets" ,並像帶有快速流響應的聊天UI一樣,看到您的終端栩栩如生,如果您的提示需要響應代碼! Navamai發布了14個命令,以幫助自定義您的個人AI工作流程。
頂級型號和提供商:您可以輕鬆地切換私有型號或託管邊境LLM。納瓦瑪(Navamai)提供了15個以上領先型號的可配置支持(GPT 4O,SONNET 3.5,GEMINI 1.5 Pro,Mistral Nemo,Sonar Llame 3.1 ...),來自7個提供商(Ollama,Anthropic,Anthropic,OpenAI,OpenAI,Groq,Groq,Groq,Google,Bedrock,Bedrock,Bedrock和Perplexity)。
Markdown Workflows: Navamai與Markdown Content(帶有簡單格式命令的文本文件)一起使用。因此,您可以將其與許多流行的工具(例如VS代碼和黑曜石)一起使用,以快速而無縫地設計一種自定義工作流,從而增強您的工藝。
少做更多的事情:納瓦瑪(Navamai)在學習少量強大命令時非常易於使用。舒適時,您可以通過更改一個配置文件並對齊Navamai來自定義Navamai命令,以適合您的工作流程。納瓦瑪(Navamai)中的所有內容都有明智的默認設置,可以快速入門。
自行製作:準備就緒時,所有內容都是可配置和擴展的,包括命令,型號,提供商,提示,模型參數,文件夾和文檔類型。當您的生成AI的接口是一個不起眼的命令提示時,發生了另一件神奇的事情。您將體驗到控制的感覺。控制您的工作流程,隱私,意圖和工件。您完全控制了與Navamai的個人AI工作流程。
轉到您想初始化Navamai的文件夾。這可能是您的黑曜石保險庫,VC代碼項目文件夾,甚至是一個空文件夾。
pip install -U navamai # upgrade or install latest NavamAI
navamai init # copies config file, quick start samples
navamai id # identifies active provider and model
ask " How old is the oldest pyramid? " # start prompting the model您將需要設置模型提供的密鑰。編輯環境配置~/.zshrc喜歡。
export ANTHROPIC_API_KEY= # https://docs.anthropic.com/en/api/getting-started
export OPENAI_API_KEY= # https://openai.com/index/openai-api/
export GROQ_API_KEY= # https://console.groq.com/keys
export GEMINI_API_KEY= # https://ai.google.dev/gemini-api
export PERPLEXITY_KEY= # https://www.perplexity.ai/settings/api如果您不想使用任何模型,那麼您需要做的就是刪除model-mapping中的navamai.yml和provider-model-mapping部分中的相應條目。還要確保其他模型配置僅參考可用模型。
對於本地型號,安裝Ollama並下載您要運行的最新型號。
現在,您準備好測試所有模型和提供商。
navamai test ask
navamai test vision如果您的Python環境已經有效,請跳過本節。
首先,您應該在系統上運行最新的Python,並使用Python Package Manager升級到最新情況。
python --version
# should return Python 3.12.x or higher as on Sep'24pyenv版本管理器。首先更改為您要安裝Navamai的VS代碼工作區,黑曜石保險庫或文件夾的目錄。接下來創建虛擬環境。
python -m venv env現在,您可以像這樣激活虛擬環境。您會注意到該目錄帶有(env)以表明您現在正在虛擬環境中運行。
. env/bin/activate使用deactivate命令離開虛擬環境。使用與之前的同一命令重新輸入。
現在您準備安裝納瓦瑪。
*請注意,安裝納瓦瑪時, navamai , ask , image和refer是您可以使用的四個頂級命令。
| 命令 | 示例和描述 |
|---|---|
| *問 | ask "your prompt"提示LLM快速,清晰(默認最多300個單詞),單轉響應 ask瀏覽配置的提示文件夾,列表提示模板以供用戶運行。 |
| 審計 | navamai audit隨著時間的流逝,通過有見地的命令行儀表板和Markdown報告分析您自己對Navamai的使用情況。 |
| config | navamai config ask save true編輯 navamai.yml文件配置從命令行 |
| 收集 | navamai gather "webpage url"在沒有菜單,側邊欄,頁腳的情況下清潔網頁上的文章。包括圖像。保存為Markdown格式,類似於HTML源。 使用 refer gather Command參考刮擦的Markdown內容。使用 navamai vision Command在刮擦圖像上使用視覺。 |
| *參考 | refer text-to-extract瀏覽一組原始文本文件並運行自定義提示以提取新的結構化內容。 refer inline-prompts-to-run運行提示嵌入了文本中的內聯,以擴展,更改和轉換現有文檔。 refer intents在意圖模板中擴展一組意圖和提示 refer your-command您可以通過簡單地複制和更改任何現有的 refer-existing模型配置來配置自己的擴展名來引用命令。 |
| 跑步 | navamai run在一個單個命令中瀏覽Markdown Files的 Code文件夾,使用代碼塊,創建,設置並運行該應用程序!使用 ask命令運行Create Vite App.md提示模板或類似的Code文件夾標記文件具有代碼塊。 |
| ID | navamai id標識當前的提供商和 ask命令的模型navamai id section-name標識特定部分中定義的提供商和模型 |
| *圖像 | image選擇一個提示模板以生成圖像。 image "Prompt for image to generate"提示生成圖像。 |
| init | navamai init在任何文件夾中初始化Navamai。複製 navamai.yml默認配置和快速啟動意圖,並嵌入文件夾和文件。在覆蓋之前進行檢查。使用 - 強制選項強制覆蓋文件和文件夾。 |
| 意圖 | navamai intents "Financial Analysis"從模板中的意圖列表中進行交互選擇,以參考嵌入內容 |
| 合併 | navamai merge "Source File"查找使用佔位符標籤 [merge here]或merge配置中定義的自定義的Source File updated ,然後將兩個文件合併到Source File merged中。與refer inline-prompts-to-run命令一起使用,以減少編輯長文本以獲取上下文時所處理的令牌數量,但僅更新一個部分。 |
| 分裂 | navamai split "Large File"使用此命令將大型文件拆分為目標模型上下文指定比例的塊。您可以在配置的 split部分中配置目標模型和比率。原始文件仍未觸及,並創建了具有相同名稱和part #後綴的新文件。 |
| 測試 | navamai test ask使用 navamai.yml配置中定義的所有提供商和模型進行測試Navamai命令,並提供了測試摘要。navamai test vision測試視覺模型。 |
| 趨勢 | navamai trends根據跨模型和提供商的 ask和vision navamai test可視化延遲和令牌長度趨勢。您可以使用--days 7命令選項進行幾天的趨勢。 |
| 證實 | navamai validate "Financial Analysis"驗證先前生成的嵌入,運行另一個模型,並報告驗證和原始內容之間的百分比差異。 |
| 想像 | navamai vision -p path/to/image.png "Describe this image"從本地路徑(-p),URL(-U)或相機(-c)的圖像上運行視覺模型,並根據提示響應。 |
使用Navamai在終端中使用幾個簡單命令,您可以使用您的選擇的Markdown工具(例如Obsidian或VS代碼)創建一個簡單而功能強大的個人AI Content Manager。例如,您可以編寫部分博客文章,寫下您的種子想法,從意圖和提示開始,或從有點分心的演講中捕獲部分註釋。
然後,您可以將refer命令與navamai.yml中的自定義refer-section配置一起使用,以將此部分,不完整或種子內容擴展到完整的帖子,註釋,文章,及時的及時研究的論文中。您可以嘗試選擇模型和提供商的選擇,通過文檔類型調整配置中的模型設置,為內容定義自定義文件夾,並指定文檔特定的系統提示,以根據文檔的類型獲得您想要的結果。您只需要記住一個簡單的命令refer ,您都已設置。
簡而言之,請查看有關啟動增長策略的部分書面帖子的Posts文件夾。現在,在navamai.yml中查看用於擴展帖子的相關配置部分。
refer-post-to-update :
lookup-folder : Posts
max-tokens : 4000
model : sonnet
provider : claude
save : true
save-folder : Posts
system : You will be given a partially written blog post on a topic.
Your job as an expert blog writer is to expand the post...
temperature : 0.5請注意,對於簡潔起見,我們沒有在此處列出完整的系統提示。您顯然可以更改它以適合您的工作流程。目前,只需在工作文件夾中refer post-to-update "startup-growth-hacking"命令,您可以在此初始化navamai。很快,模型響應開始流入您的終端。擴展的帖子保存在帶有updated前綴的Posts文件夾中,因此您可以與原件進行比較。
要創建一種新的文檔類型,例如研究論文,課堂筆記,烹飪食譜或其他任何內容,您需要做的就是複制和自定義refer-post-to-update或refer-intents-to-expand為類似於您的自定義refer-notes-to-summarize部分。然後,您可以在新文檔類型上運行一個自定義命令,例如refer notes-to-summarize "your-notes-file"並獲得相同的結果。
當與其他納瓦瑪(Navamai)命令結合使用時,此工作流可以變得更加強大。例如,首先將您的文檔模板定義為一組意圖,並作為簡單的降價。例如,此處顯示Financial Analysis或Product Management 。接下來,添加一些目的作為標題,例如Macro Factors Impact Stocks Top Companies by ROCE依此類推。然後在這些意圖下添加簡單的提示以生成內容。現在,您可以使用Navamai在文檔模板中使用命令refer intents-to-expand "Financial Analysis"文檔模板中的一系列意圖和提示,並且該模型將集思廣益更多相關的意圖和提示,以便您使用。
現在,運行navamai intents-to-expand "Financial Analysis" ,並選擇作為嵌入內容產生的意圖列表。響應自動保存在Embeds文件夾下,並立即在文檔模板中鏈接嵌入。沖洗,重複。
此工作流可以非常有用。由於每個模板都有鏈接的嵌入,因此黑曜石圖視圖可用於可視化鏈接。您可以獲得創意和鏈接相關模板,甚至可以增強具有更多意圖的生成的嵌入。當然,這也意味著您可以使用所有出色的黑曜石插件來生成網站,PDF等。您的創造力 +黑曜石 + Navamai =魔術!
納瓦瑪(Navamai)為五個提供商(Ollama,Anthropic,Openai,Groq,Google)的15個領先模型提供了可配置的支持。 navamai test命令可用於在所有提供商和模型組合上運行每個Navamai命令,並以模型測試和評估結果的摘要做出響應。使用它快速比較模型和提供商,以及在配置中添加或刪除新的模型或提供商時。
當比較模型響應時間(延遲),響應質量(它遵循系統和提示說明),響應準確性和令牌長度(成本)時,此命令非常有用。您可以在test部分中的navamai.yml中配置測試提示。
這是運行navamai test vision命令和結果測試摘要的示例。我這個默認提示和圖像我們正在分享大約150-160人近距離近距離的圖像,並要求模型計算人數。正確的數字在150-160之間。這可用於根據響應計算每個模型的相對準確性。響應如何遵循系統提示,用戶提示表明響應質量。
您還可以注意到響應時間似乎與模型大小成正比。對於克勞德(Claude),opus> sonnet> haiku。對於雙子座,Pro> flash。對於Openai,GPT-4O> GPT-4-Mini。
您可以類似地運行navamai test ask命令以在所有型號和提供商中進行測試。在此運行中,您可能會發現Groq是響應時間最快的提供商之一。
當然,您可能需要進行多次測試以獲得更好的響應時間直覺,因為有多種因素會影響延遲,而不是模型大小或架構(例如網絡潛伏期),這些因素可能會隨著多個測試運行而發生變化。
每個navamai test命令運行都通過Timestamp和提供商模型保存在Metrics文件夾中的測試摘要數據。隨著時間的流逝,您可以看到延遲和代幣計數指標的趨勢,以查看模型是否始終如一。運行navamai trends命令以查看趨勢7天(默認)。
可視化使用閃光燈來顯示數據趨勢隨著時間的流逝。用它來根據績效趨勢來決定何時/是否要切換模型。
想並排比較多個模型嗎?您需要做的就是打開多個外殼或終端實例。現在,在每一個中,一個一一更改模型,運行相同的ask "prompt" ,並並排比較結果。簡單的!
由於Navamai命令每次運行時都會在當前文件夾中使用navamai.yml配置,因此您可以通過簡單地將配置文件複製到多個文件夾中並在其中運行命令來創建更複雜的並行運行,多模型和交叉提供的工作流。這樣,您可以在一個文件夾和終端上的本地模型上運行一些長期運行的任務。當您日常工作流程時,另一個工作流程。等等。
企業在您的命令提示符中沒有行為營銷或成長黑客攻擊。您以適合的方式指導工作流程。您決定,運行最快的模型提供商(帶有Llama 3.1的GROQ),或者是目前最有能力的型號(SONNET 3.5或GPT-4O),或者您的筆記本電腦(Mistral Nemo)上的最新小型型號或具有最大上下文的模型(Gemini 1.5 Flash)。使用快速wifi或no wifi(使用本地型號)運行,沒有約束。立即搜索,研究,問答,以學習或生成一組文物以節省以後。切換到這些工作流程中的任何一個都是配置文件中的幾個更改,或者在終端上易於記住的命令。
您還可以將自定義模型名稱配置為實際模型版本映射,以簡化模型切換命令。通過以下映射,要切換型號的命令是navamai config ask model llama或navamai config intents model haiku等。
model-mapping :
# Claude models
sonnet : claude-3-5-sonnet-20240620
opus : claude-3-opus-20240229
haiku : claude-3-haiku-20240307
# Ollama models
llama : llama3.1
gemma : gemma2
mistral : mistral-nemo
# Groq models
groq-mixtral : mixtral-8x7b-32768
groq-llama : llama2-70b-4096
# OpenAI models
gpt4mini : gpt-4o-mini
gpt4o : gpt-4o
# Gemini models
gemini-pro : gemini-1.5-pro
gemini-flash : gemini-1.5-flash 您可以決定您信任哪種型號和提供商,甚至選擇在筆記本電腦上本地運行LLM。您可以控制數據和偏好的私密性。納瓦瑪(Navamai)支持人類,OpenAI,Google和Meta的最先進的模型。您可以選擇託管的提供商或Ollama作為筆記本電腦上的本地模型提供商。使用navamai config ask model llama之類的簡單命令在模型和提供商之間進行切換,以從當前模型中切換。
您還可以加載映射到每個命令的自定義模型配置集。在navamai.yml文件中配置這些。這是一個示例,說明使用本地和託管模型提供商來限制navamai ask和navamai intents命令的行為不同。
ask :
provider : ollama
model : mistral
max-tokens : 300
save : false
system : Be crisp in your response. Only respond to the prompt
using valid markdown syntax. Do not explain your response.
temperature : 0.3
intents :
provider : claude
model : sonnet
max-tokens : 1000
save : true
folder : Embeds
system : Only respond to the prompt using valid markdown syntax.
When responding with markdown headings start at level 2.
Do not explain your response.
temperature : 0.0 納瓦瑪(Navamai)保存了命令,提示,模板,查找文件夾和trail.yml的文件。您可以隨時使用navamai audit命令來隨時可視化此信息,以了解隨著時間的流逝,您可以了解納瓦瑪的使用情況。
您的意圖是要執行的任務,要完成的目標,想要實現的計劃,想要做出的決定或要回答的問題。您可以通過自己的意圖來控制整個納瓦瑪的體驗。您可以將意圖作為文本文件中任務的簡單概述保存。您可以在需要時回想起它們。您可以在合適的情況下以自己的意圖運行模型。您可以根據意圖保存結果。
您可以驗證一個LLM生成的內容,並通過另一個模型驗證。確保在運行Run refer intents命令以生成嵌入的第一個通過後,只能運行validate命令。使用navamai validate "Financial Analysis"或您創建的任何意圖模板。驗證的工作流與擴展意圖相似。僅在這種情況下,驗證模型配置決定要使用哪種模型和提供商。您還可以修改驗證提示,以檢查與用例相關的任何特定內容。在使用相似性評分進行差異比較時,在原始和經過驗證的文本上計算差異,以刪除任何新線,空白或降價格式。使用它來自動化生成內容的質量驗證。