使用Navamai通过个人,快速和优质的AI来增强您的生产力和工作流程。将您的终端变成可配置,交互式和不引人注目的个人AI应用程序。您的手指技巧的15个LLM和7个提供商的功率。在Markdown,VS代码,黑曜石和GitHub中与工作流程配对。通过三个简单命令快速生产。
命令就是您所需要的:因此,LLM科学迷将在我们的标语中获得双关语。这是著名论文上的一部戏剧,将世界介绍给了变压器模型架构 - 您需要的全部。使用Navamai,通过您喜欢的终端或外壳进行简单的命令,您需要将大型或小语言模型弯曲为您的意愿。 Navamai在您的命令提示符中提供了一个丰富的UI。没有浏览器选项卡要打开,没有安装应用程序,没有上下文切换...只是纯,简单,快速的工作流程。尝试使用一个简单的命令,例如ask "create a table of planets" ,并像带有快速流响应的聊天UI一样,看到您的终端栩栩如生,如果您的提示需要响应代码! Navamai发布了14个命令,以帮助自定义您的个人AI工作流程。
顶级型号和提供商:您可以轻松地切换私有型号或托管边境LLM。纳瓦玛(Navamai)提供了15个以上领先型号的可配置支持(GPT 4O,SONNET 3.5,GEMINI 1.5 Pro,Mistral Nemo,Sonar Llame 3.1 ...),来自7个提供商(Ollama,Anthropic,Anthropic,OpenAI,OpenAI,Groq,Groq,Groq,Google,Bedrock,Bedrock,Bedrock和Perplexity)。
Markdown Workflows: Navamai与Markdown Content(带有简单格式命令的文本文件)一起使用。因此,您可以将其与许多流行的工具(例如VS代码和黑曜石)一起使用,以快速而无缝地设计一种自定义工作流,从而增强您的工艺。
少做更多的事情:纳瓦玛(Navamai)在学习少量强大命令时非常易于使用。舒适时,您可以通过更改一个配置文件并对齐Navamai来自定义Navamai命令,以适合您的工作流程。纳瓦玛(Navamai)中的所有内容都有明智的默认设置,可以快速入门。
自行制作:准备就绪时,所有内容都是可配置和扩展的,包括命令,型号,提供商,提示,模型参数,文件夹和文档类型。当您的生成AI的接口是一个不起眼的命令提示时,发生了另一件神奇的事情。您将体验到控制的感觉。控制您的工作流程,隐私,意图和工件。您完全控制了与Navamai的个人AI工作流程。
转到您想初始化Navamai的文件夹。这可能是您的黑曜石保险库,VC代码项目文件夹,甚至是一个空文件夹。
pip install -U navamai # upgrade or install latest NavamAI
navamai init # copies config file, quick start samples
navamai id # identifies active provider and model
ask " How old is the oldest pyramid? " # start prompting the model您将需要设置模型提供的密钥。编辑环境配置~/.zshrc喜欢。
export ANTHROPIC_API_KEY= # https://docs.anthropic.com/en/api/getting-started
export OPENAI_API_KEY= # https://openai.com/index/openai-api/
export GROQ_API_KEY= # https://console.groq.com/keys
export GEMINI_API_KEY= # https://ai.google.dev/gemini-api
export PERPLEXITY_KEY= # https://www.perplexity.ai/settings/api如果您不想使用任何模型,那么您需要做的就是删除model-mapping中的navamai.yml和provider-model-mapping部分中的相应条目。还要确保其他模型配置仅参考可用模型。
对于本地型号,安装Ollama并下载您要运行的最新型号。
现在,您准备好测试所有模型和提供商。
navamai test ask
navamai test vision如果您的Python环境已经有效,请跳过本节。
首先,您应该在系统上运行最新的Python,并使用Python Package Manager升级到最新情况。
python --version
# should return Python 3.12.x or higher as on Sep'24pyenv版本管理器。首先更改为您要安装Navamai的VS代码工作区,黑曜石保险库或文件夹的目录。接下来创建虚拟环境。
python -m venv env现在,您可以像这样激活虚拟环境。您会注意到该目录带有(env)以表明您现在正在虚拟环境中运行。
. env/bin/activate使用deactivate命令离开虚拟环境。使用与之前的同一命令重新输入。
现在您准备安装纳瓦玛。
*请注意,安装纳瓦玛时, navamai , ask , image和refer是您可以使用的四个顶级命令。
| 命令 | 示例和描述 |
|---|---|
| *问 | ask "your prompt"提示LLM快速,清晰(默认最多300个单词),单转响应 ask浏览配置的提示文件夹,列表提示模板以供用户运行。 |
| 审计 | navamai audit随着时间的流逝,通过有见地的命令行仪表板和Markdown报告分析您自己对Navamai的使用情况。 |
| config | navamai config ask save true编辑 navamai.yml文件配置从命令行 |
| 收集 | navamai gather "webpage url"在没有菜单,侧边栏,页脚的情况下清洁网页上的文章。包括图像。保存为Markdown格式,类似于HTML源。 使用 refer gather Command参考刮擦的Markdown内容。使用 navamai vision Command在刮擦图像上使用视觉。 |
| *参考 | refer text-to-extract浏览一组原始文本文件并运行自定义提示以提取新的结构化内容。 refer inline-prompts-to-run运行提示嵌入了文本中的内联,以扩展,更改和转换现有文档。 refer intents在意图模板中扩展一组意图和提示 refer your-command您可以通过简单地复制和更改任何现有的 refer-existing模型配置来配置自己的扩展名来引用命令。 |
| 跑步 | navamai run在一个单个命令中浏览Markdown Files的 Code文件夹,使用代码块,创建,设置并运行该应用程序!使用 ask命令运行Create Vite App.md提示模板或类似的Code文件夹标记文件具有代码块。 |
| ID | navamai id标识当前的提供商和 ask命令的模型navamai id section-name标识特定部分中定义的提供商和模型 |
| *图像 | image选择一个提示模板以生成图像。 image "Prompt for image to generate"提示生成图像。 |
| init | navamai init在任何文件夹中初始化Navamai。复制 navamai.yml默认配置和快速启动意图,并嵌入文件夹和文件。在覆盖之前进行检查。使用 - 强制选项强制覆盖文件和文件夹。 |
| 意图 | navamai intents "Financial Analysis"从模板中的意图列表中进行交互选择,以参考嵌入内容 |
| 合并 | navamai merge "Source File"查找使用占位符标签 [merge here]或merge配置中定义的自定义的Source File updated ,然后将两个文件合并到Source File merged中。与refer inline-prompts-to-run命令一起使用,以减少编辑长文本以获取上下文时所处理的令牌数量,但仅更新一个部分。 |
| 分裂 | navamai split "Large File"使用此命令将大型文件拆分为目标模型上下文指定比例的块。您可以在配置的 split部分中配置目标模型和比率。原始文件仍未触及,并创建了具有相同名称和part #后缀的新文件。 |
| 测试 | navamai test ask使用 navamai.yml配置中定义的所有提供商和模型进行测试Navamai命令,并提供了测试摘要。navamai test vision测试视觉模型。 |
| 趋势 | navamai trends根据跨模型和提供商的 ask和vision navamai test可视化延迟和令牌长度趋势。您可以使用--days 7命令选项进行几天的趋势。 |
| 证实 | navamai validate "Financial Analysis"验证先前生成的嵌入,运行另一个模型,并报告验证和原始内容之间的百分比差异。 |
| 想象 | navamai vision -p path/to/image.png "Describe this image"从本地路径(-p),URL(-U)或相机(-c)的图像上运行视觉模型,并根据提示响应。 |
使用Navamai在终端中使用几个简单命令,您可以使用您的选择的Markdown工具(例如Obsidian或VS代码)创建一个简单而功能强大的个人AI Content Manager。例如,您可以编写部分博客文章,写下您的种子想法,从意图和提示开始,或从有点分心的演讲中捕获部分注释。
然后,您可以将refer命令与navamai.yml中的自定义refer-section配置一起使用,以将此部分,不完整或种子内容扩展到完整的帖子,注释,文章,及时的及时研究的论文中。您可以尝试选择模型和提供商的选择,通过文档类型调整配置中的模型设置,为内容定义自定义文件夹,并指定文档特定的系统提示,以根据文档的类型获得您想要的结果。您只需要记住一个简单的命令refer ,您都已设置。
简而言之,请查看有关启动增长策略的部分书面帖子的Posts文件夹。现在,在navamai.yml中查看用于扩展帖子的相关配置部分。
refer-post-to-update :
lookup-folder : Posts
max-tokens : 4000
model : sonnet
provider : claude
save : true
save-folder : Posts
system : You will be given a partially written blog post on a topic.
Your job as an expert blog writer is to expand the post...
temperature : 0.5请注意,对于简洁起见,我们没有在此处列出完整的系统提示。您显然可以更改它以适合您的工作流程。目前,只需在工作文件夹中refer post-to-update "startup-growth-hacking"命令,您可以在此初始化navamai。很快,模型响应开始流入您的终端。扩展的帖子保存在带有updated前缀的Posts文件夹中,因此您可以与原件进行比较。
要创建一种新的文档类型,例如研究论文,课堂笔记,烹饪食谱或其他任何内容,您需要做的就是复制和自定义refer-post-to-update或refer-intents-to-expand为类似于您的自定义refer-notes-to-summarize部分。然后,您可以在新文档类型上运行一个自定义命令,例如refer notes-to-summarize "your-notes-file"并获得相同的结果。
当与其他纳瓦玛(Navamai)命令结合使用时,此工作流可以变得更加强大。例如,首先将您的文档模板定义为一组意图,并作为简单的降价。例如,此处显示Financial Analysis或Product Management 。接下来,添加一些目的作为标题,例如Macro Factors Impact Stocks Top Companies by ROCE依此类推。然后在这些意图下添加简单的提示以生成内容。现在,您可以使用Navamai在文档模板中使用命令refer intents-to-expand "Financial Analysis"文档模板中的一系列意图和提示,并且该模型将集思广益更多相关的意图和提示,以便您使用。
现在,运行navamai intents-to-expand "Financial Analysis" ,并选择作为嵌入内容产生的意图列表。响应自动保存在Embeds文件夹下,并立即在文档模板中链接嵌入。冲洗,重复。
此工作流可以非常有用。由于每个模板都有链接的嵌入,因此黑曜石图视图可用于可视化链接。您可以获得创意和链接相关模板,甚至可以增强具有更多意图的生成的嵌入。当然,这也意味着您可以使用所有出色的黑曜石插件来生成网站,PDF等。您的创造力 +黑曜石 + Navamai =魔术!
纳瓦玛(Navamai)为五个提供商(Ollama,Anthropic,Openai,Groq,Google)的15个领先模型提供了可配置的支持。 navamai test命令可用于在所有提供商和模型组合上运行每个Navamai命令,并以模型测试和评估结果的摘要做出响应。使用它快速比较模型和提供商,以及在配置中添加或删除新的模型或提供商时。
当比较模型响应时间(延迟),响应质量(它遵循系统和提示说明),响应准确性和令牌长度(成本)时,此命令非常有用。您可以在test部分中的navamai.yml中配置测试提示。
这是运行navamai test vision命令和结果测试摘要的示例。我这个默认提示和图像我们正在分享大约150-160人近距离近距离的图像,并要求模型计算人数。正确的数字在150-160之间。这可用于根据响应计算每个模型的相对准确性。响应如何遵循系统提示,用户提示表明响应质量。
您还可以注意到响应时间似乎与模型大小成正比。对于克劳德(Claude),opus> sonnet> haiku。对于双子座,Pro> flash。对于Openai,GPT-4O> GPT-4-Mini。
您可以类似地运行navamai test ask命令以在所有型号和提供商中进行测试。在此运行中,您可能会发现Groq是响应时间最快的提供商之一。
当然,您可能需要进行多次测试以获得更好的响应时间直觉,因为有多种因素会影响延迟,而不是模型大小或架构(例如网络潜伏期),这些因素可能会随着多个测试运行而发生变化。
每个navamai test命令运行都通过Timestamp和提供商模型保存在Metrics文件夹中的测试摘要数据。随着时间的流逝,您可以看到延迟和代币计数指标的趋势,以查看模型是否始终如一。运行navamai trends命令以查看趋势7天(默认)。
可视化使用闪光灯来显示数据趋势随着时间的流逝。用它来根据绩效趋势来决定何时/是否要切换模型。
想并排比较多个模型吗?您需要做的就是打开多个外壳或终端实例。现在,在每一个中,一个一一更改模型,运行相同的ask "prompt" ,并并排比较结果。简单的!
由于Navamai命令每次运行时都会在当前文件夹中使用navamai.yml配置,因此您可以通过简单地将配置文件复制到多个文件夹中并在其中运行命令来创建更复杂的并行运行,多模型和交叉提供的工作流。这样,您可以在一个文件夹和终端上的本地模型上运行一些长期运行的任务。当您日常工作流程时,另一个工作流程。等等。
企业在您的命令提示符中没有行为营销或成长黑客攻击。您以适合的方式指导工作流程。您决定,运行最快的模型提供商(带有Llama 3.1的GROQ),或者是目前最有能力的型号(SONNET 3.5或GPT-4O),或者您的笔记本电脑(Mistral Nemo)上的最新小型型号或具有最大上下文的模型(Gemini 1.5 Flash)。使用快速wifi或no wifi(使用本地型号)运行,没有约束。立即搜索,研究,问答,以学习或生成一组文物,以节省以后。切换到这些工作流程中的任何一个都是配置文件中的几个更改,或者在终端上易于记住的命令。
您还可以将自定义模型名称配置为实际模型版本映射,以简化模型切换命令。通过以下映射,要切换型号的命令是navamai config ask model llama或navamai config intents model haiku等。
model-mapping :
# Claude models
sonnet : claude-3-5-sonnet-20240620
opus : claude-3-opus-20240229
haiku : claude-3-haiku-20240307
# Ollama models
llama : llama3.1
gemma : gemma2
mistral : mistral-nemo
# Groq models
groq-mixtral : mixtral-8x7b-32768
groq-llama : llama2-70b-4096
# OpenAI models
gpt4mini : gpt-4o-mini
gpt4o : gpt-4o
# Gemini models
gemini-pro : gemini-1.5-pro
gemini-flash : gemini-1.5-flash 您可以决定您信任哪种型号和提供商,甚至选择在笔记本电脑上本地运行LLM。您可以控制数据和偏好的私密性。纳瓦玛(Navamai)支持人类,OpenAI,Google和Meta的最先进的模型。您可以选择托管的提供商或Ollama作为笔记本电脑上的本地模型提供商。使用navamai config ask model llama之类的简单命令在模型和提供商之间进行切换,以从当前模型中切换。
您还可以加载映射到每个命令的自定义模型配置集。在navamai.yml文件中配置这些。这是一个示例,说明使用本地和托管模型提供商来限制navamai ask和navamai intents命令的行为不同。
ask :
provider : ollama
model : mistral
max-tokens : 300
save : false
system : Be crisp in your response. Only respond to the prompt
using valid markdown syntax. Do not explain your response.
temperature : 0.3
intents :
provider : claude
model : sonnet
max-tokens : 1000
save : true
folder : Embeds
system : Only respond to the prompt using valid markdown syntax.
When responding with markdown headings start at level 2.
Do not explain your response.
temperature : 0.0 纳瓦玛(Navamai)保存了命令,提示,模板,查找文件夹和trail.yml的文件。您可以随时使用navamai audit命令来随时可视化此信息,以了解随着时间的流逝,您可以了解纳瓦玛的使用情况。
您的意图是要执行的任务,要完成的目标,想要实现的计划,想要做出的决定或要回答的问题。您可以通过自己的意图来控制整个纳瓦玛的体验。您可以将意图作为文本文件中任务的简单概述保存。您可以在需要时回想起它们。您可以在合适的情况下以自己的意图运行模型。您可以根据意图保存结果。
您可以验证一个LLM生成的内容,并通过另一个模型验证。确保在运行Run refer intents命令以生成嵌入的第一个通过后,只能运行validate命令。使用navamai validate "Financial Analysis"或您创建的任何意图模板。验证的工作流与扩展意图相似。仅在这种情况下,验证模型配置决定要使用哪种模型和提供商。您还可以修改验证提示,以检查与用例相关的任何特定内容。在使用相似性评分进行差异比较时,在原始和经过验证的文本上计算差异,以删除任何新线,空白或降价格式。使用它来自动化生成内容的质量验证。