Use Navamai para sobrecarregar sua produtividade e fluxo de trabalho com IA pessoal, rápida e de qualidade. Transforme seu terminal em um aplicativo de IA pessoal configurável, interativo e discreto. Poder de 15 LLMs e 7 provedores nas pontas dos dedos. Combine com fluxos de trabalho em Markdown, VS Code, Obsidian e Github. Obtenha rápido rápido com três comandos simples.
Comando é tudo o que você precisa: então, os fãs de ciências do LLM receberão o trocadilho em nosso slogan. É uma peça no famoso artigo que apresentou o mundo à arquitetura de modelos de transformadores - a atenção é tudo o que você precisa. Com o Navamai, um comando simples através do seu terminal ou shell favorito é tudo o que você precisa para dobrar um modelo de idioma grande ou pequeno para seus desejos. Navamai fornece uma interface do usuário rica ali dentro do seu prompt de comando. Sem guias do navegador para abrir, nenhum aplicativo para instalar, sem troca de contexto ... apenas fluxo de trabalho puro, simples e rápido. Experimente com um comando simples, como ask "create a table of planets" e veja seu terminal ganhando vida como uma interface do usuário de bate -papo com respostas de streaming rápido, tabelas formatadas de marcação e até blocos de código com destaques de cores se o seu prompt requer código em resposta! A Navamai lançou 14 comandos para ajudar a personalizar seu fluxo de trabalho pessoal de IA.
Modelos e provedores principais: você pode trocar de modelos privados ou hospedado Frontier LLMS com facilidade. Navamai vem com suporte configurável para mais de 15 modelos principais (GPT 4O, Soneto 3,5, Gemini 1,5 Pro, Nemo Mistral, Sonar Llama 3.1 ...) de 7 provedores (Ollama, Anthrópico, Openai, Groq, Google, Bedrock e Perplexity).
Fluxos de trabalho de marcação: Navamai trabalha com conteúdo de marcação (arquivos de texto com comandos de formatação simples). Assim, você pode usá -lo com muitas ferramentas populares, como o Code e a Obsidian, para projetar de maneira rápida e perfeita um fluxo de trabalho personalizado que aprimore seu ofício.
Faça mais com menos: o Navamai é muito simples de usar fora da caixa ao aprender um punhado de comandos poderosos. À medida que você se sente confortável, você pode personalizar os comandos da Navamai simplesmente alterando um arquivo de configuração e alinhando o Navamai para se adequar ao seu fluxo de trabalho. Tudo em Navamai tem padrões sensatos para começar rapidamente.
Faça o seu próprio: quando estiver pronto, tudo é configurável e extensível, incluindo comandos, modelos, provedores, avisos, parâmetros de modelo, pastas e tipos de documentos. Outra coisa mágica acontece quando a interface para sua IA generativa é um prompt de comando humilde. Você experimentará uma sensação de estar no controle. No controle do seu fluxo de trabalho, sua privacidade, seus intenções e seus artefatos. Você está completamente no controle do seu fluxo de trabalho pessoal de IA com Navamai.
Vá para uma pasta onde deseja inicializar Navamai. Este pode ser o seu cofre de obsidiano ou uma pasta do projeto de código VC ou até uma pasta vazia.
pip install -U navamai # upgrade or install latest NavamAI
navamai init # copies config file, quick start samples
navamai id # identifies active provider and model
ask " How old is the oldest pyramid? " # start prompting the model Você precisará configurar as teclas de provedor de modelos. Edite o seu ambiente config ~/.zshrc como assim.
export ANTHROPIC_API_KEY= # https://docs.anthropic.com/en/api/getting-started
export OPENAI_API_KEY= # https://openai.com/index/openai-api/
export GROQ_API_KEY= # https://console.groq.com/keys
export GEMINI_API_KEY= # https://ai.google.dev/gemini-api
export PERPLEXITY_KEY= # https://www.perplexity.ai/settings/api Se você não deseja usar nenhum modelo, tudo o que você precisa fazer é remover as entradas correspondentes do navamai.yml no model-mapping e nas seções provider-model-mapping . Verifique também que as outras configurações de modelo se referem apenas aos modelos disponíveis.
Para modelos locais, instale o Ollama e faça o download dos modelos mais recentes que você deseja executar.
Agora você está pronto para testar todos os modelos e fornecedores.
navamai test ask
navamai test visionPule esta seção se você já tiver seu ambiente Python funcionando.
Primeiro, você deve executar o mais recente Python no seu sistema com o Python Package Manager atualizado para o mais recente.
python --version
# should return Python 3.12.x or higher as on Sep'24pyenv Version Manager.Primeira alteração no diretório para o seu espaço de trabalho de código vs, cofre de obsidiano ou pasta onde você deseja instalar o Navamai. Em seguida, crie o ambiente virtual.
python -m venv env Agora você pode ativar seu ambiente virtual como assim. Você notará que o diretório prefixou com (env) para indicar que agora está em execução no ambiente virtual.
. env/bin/activate Para deixar o ambiente virtual usando o comando deactivate . Entre usando o mesmo comando do anterior.
Agora você está pronto para instalar o Navamai.
*Observe que navamai , ask , image e refer são quatro comandos de nível superior disponíveis para você quando você instala o Navamai.
| Comando | Exemplo e descrição |
|---|---|
| * perguntar | ask "your prompt"Solicite o LLM para uma resposta rápida e nítida (padrão de até 300 palavras), askNavegação A pasta Prompts configurada, lista os modelos de prompt para o usuário executar. |
| auditoria | navamai auditAnalise seu próprio uso do Navamai ao longo do tempo com um painel de linha de comando perspicaz e um relatório de marcação. |
| Config | navamai config ask save trueEditar navamai.yml File Config da linha de comando |
| juntar | navamai gather "webpage url"Raspe de maneira limpa um artigo de uma página da web, sem menus, barra lateral, rodapé. Inclui imagens. Economiza como formatada de marcação semelhante à fonte HTML. Consulte o conteúdo de marcação raspado usando o comando refer gather .Use a visão em imagens raspadas usando o comando navamai vision . |
| * Consulte | refer text-to-extractNavegue por um conjunto de arquivos de texto bruto e execute instruções personalizadas para extrair novos conteúdos estruturados. refer inline-prompts-to-runExecutar avisos embutidos embutidos no texto para expandir, alterar e converter documentos existentes. refer intentsExpanda um conjunto de intenções e avisos dentro de um modelo de intenções refer your-commandVocê pode configurar suas próprias extensões para referir o comando simplesmente copiando e alterando qualquer uma das configurações de modelo refer-existing . |
| correr | navamai runNavegue pela pasta Code para arquivos de marcação com blocos de código, crie, configure e execute o aplicativo em um único comando!Os arquivos de marcação da pasta Code com blocos de código são criados usando o comando ask Running Running Create Vite App.md Modelo de prompt ou similar. |
| eu ia | navamai idIdentifica o atual provedor e modelo para o comando asknavamai id section-nameIdentifica o provedor e o modelo definidos em seção específica |
| * imagem | imageSelecione um modelo de prompt para gerar uma imagem. image "Prompt for image to generate"Solicitação para gerar uma imagem. |
| init | navamai initInicialize Navamai em qualquer pasta. Copia navamai.yml Padrão Config e o rápido Iniciar as intenções e incorporar pastas e arquivos. Verifica antes de substituir. Use opção -Force para forçar os arquivos e pastas de substituição. |
| intenções | navamai intents "Financial Analysis"Escolha interativamente entre uma lista de intenções dentro de um modelo para consultar em incorporações de conteúdo |
| mesclar | navamai merge "Source File"Encontra Source File updated com as tags de espaço reservado [merge here] ou conforme definido no merge Config, depois mescla os dois arquivos no Source File merged . Use junto com o refer inline-prompts-to-run para reduzir o número de tokens processados ao editar um texto longo para o contexto, mas atualizando apenas uma seção. |
| dividir | navamai split "Large File"Use este comando para dividir um arquivo grande em pedaços dentro de uma proporção especificada do contexto do modelo de destino. Você pode configurar o modelo de destino e a proporção na seção split da configuração. O arquivo original permanece intocado e novos arquivos com o mesmo nome e o sufixo part # são criados. |
| teste | navamai test askTestes o comando Navamai usando todos os provedores e modelos definidos na Config navamai.yml e fornece um resumo do teste.navamai test visionModelos de visão de teste. |
| tendências | navamai trendsVisualize as tendências de latência e comprimento do token com base nas execuções navamai test para comandos ask e vision entre modelos e provedores. Você pode tender por um período de dias usando --days 7 Command Opção. |
| validar | navamai validate "Financial Analysis"Valida incorporação anterior gerada em execução de outro modelo e relata a diferença percentual entre conteúdo validado e original. |
| visão | navamai vision -p path/to/image.png "Describe this image"Executa modelos de visão em imagens do caminho local (-P), URL (-u) ou câmera (-C) e responde com base no prompt. |
Usando o Navamai com poucos comandos simples em seu terminal, você pode criar um gerenciador de conteúdo pessoal de IA simples, mas poderoso, com sua ferramenta de marcação de escolha, como Obsidian ou VS Code. Por exemplo, você pode escrever postagens parciais de blogs, escrever suas idéias de sementes, começar com uma lista de intenções e avisos ou capturar notas parciais de uma palestra em que você foi um pouco distraído.
Em seguida, você pode usar o comando refer em conjunto com as configurações de refer-section personalizadas no navamai.yml para expandir esse conteúdo parcial, incompleto ou de semente em postagens completas, notas, artigos, modelos imediatos e até artigos bem pesquisados. Você pode experimentar a opção de modelos e provedores, ajustar as configurações do modelo na configuração por tipo de documento, definir pastas personalizadas para o seu conteúdo e especificar instruções específicas do sistema para obter exatamente o resultado que você deseja com base no tipo do documento. Você só precisa se lembrar de um comando simples, refer e você está pronto.
Como um exemplo rápido, confira a pasta de Posts com postagem de amostra parcialmente escrita sobre estratégias de crescimento de startups. Agora, veja a seção de configuração relacionada no navamai.yml para expansão de postagens.
refer-post-to-update :
lookup-folder : Posts
max-tokens : 4000
model : sonnet
provider : claude
save : true
save-folder : Posts
system : You will be given a partially written blog post on a topic.
Your job as an expert blog writer is to expand the post...
temperature : 0.5 Observe que, para a brevidade, não estamos listando o prompt completo do sistema aqui. Obviamente, você pode alterá -lo para se adequar ao seu fluxo de trabalho. Por enquanto, basta executar o comando refer post-to-update "startup-growth-hacking" dentro da pasta de trabalho, onde você inicializou o Navamai. Logo a resposta do modelo começa a fluir para o seu terminal. A postagem expandida é salva na pasta de Posts com prefixo updated para que você possa comparar com o original.
Para criar um novo tipo de documento, como documentos de pesquisa, notas de classe, receitas de cozinha ou qualquer outra coisa, tudo o que você precisa fazer é copiar e personalizar uma das seções refer-post-to-update ou refer-intents-to-expand algo como sua seção refer-notes-to-summarize personalizada. Em seguida, você pode executar um comando personalizado no seu novo tipo de documento, como refer notes-to-summarize "your-notes-file" e obter os mesmos resultados.
Quando combinado com outros comandos de Navamai, esse fluxo de trabalho pode ficar ainda mais poderoso. Como exemplo, comece definindo seu modelo de documento para um conjunto de intenções e instruções como uma simples marcação. Por exemplo, Financial Analysis ou Product Management são mostrados aqui. Em seguida, adicione algumas intenções como os títulos como, Macro Factors Impact Stocks ou Top Companies by ROCE e assim por diante. Em seguida, adicione instruções simples nessas intenções de gerar conteúdo. Agora você pode usar o Navamai para expandir o conjunto de intenções e avisos no modelo de documento com o comando refer intents-to-expand "Financial Analysis" e o modelo fará um brainstorm de intenções e solicitações mais relacionadas para você usar.
Agora execute navamai intents-to-expand "Financial Analysis" e escolha entre uma lista de intenções para gerar como incorporações de conteúdo. A resposta é salva na pasta Embeds automaticamente e a incorporação está vinculada no seu modelo de documento instantaneamente. Enxágue, repita.
Este fluxo de trabalho pode ser realmente útil muito rápido. Como cada modelo tem incorporação vinculada, a visualização do gráfico da obsidiana pode ser usada para visualizar os links. Você pode ser criativo e vincular modelos relacionados ou até melhorar incorporados gerados com mais intenções. É claro que isso também significa que você pode usar todos os ótimos plugins de obsidiano para gerar sites, PDFs e muito mais. Sua criatividade + Obsidian + Navamai = Magic!
O Navamai vem com suporte configurável para mais de 15 modelos principais de cinco fornecedores (Ollama, Antrópico, Openai, Groq, Google). O comando navamai test pode ser usado para executar cada um dos comandos da Navamai em todos os combinações de provedor e modelo e responder com um resumo dos resultados do teste e da avaliação do modelo. Use isso para comparar rapidamente modelos e fornecedores, bem como quando você adicionar ou remover um novo modelo ou provedor na configuração.
Esse comando é super útil ao comparar o tempo de resposta do modelo (latência), a qualidade da resposta (segue o sistema e as instruções imediatas), precisão da resposta e comprimento do token (custo) para o mesmo prompt. Você pode configurar os prompts de teste no navamai.yml na seção test .
Aqui está um exemplo de execução do comando navamai test vision e resumo resultante do teste. I Esse prompt e imagem padrão, estamos compartilhando a imagem de cerca de 150 a 160 pessoas em pé nas proximidades de um círculo e pedindo ao modelo que conte o número de pessoas. O número certo está entre 150-160. Isso pode ser usado para calcular a precisão relativa de cada modelo com base na resposta. Quão intimamente a resposta segue o prompt do sistema e os avisos do usuário são indicativos da qualidade da resposta.
Você também pode notar que os tempos de resposta parecem proporcionais ao tamanho do modelo. Para Claude, Opus> Sonnet> Haiku. Para Gemini, pro> flash. Para o Openai, GPT-4o> GPT-4-Mini.
Da mesma forma, você pode executar o comando navamai test ask para testar todos os modelos e provedores. Nesta corrida, você pode encontrar o Groq está entre os fornecedores mais rápidos quando se trata de tempo de resposta.
Obviamente, você pode precisar de várias execuções de teste para obter melhor intuição dos tempos de resposta, pois existem vários fatores que efetivam a latência diferente do tamanho ou da arquitetura do modelo, como a latência da rede, que podem mudar em várias execuções de teste.
Cada execução do comando navamai test salva os dados de resumo do teste na pasta de Metrics por registro de data e hora e modelo do provedor. Com o tempo, você pode visualizar tendências de latência e métricas de contagem de token para verificar se os modelos estão executando de forma consistente. Execute o comando navamai trends para visualizar as tendências por 7 dias (padrão).
A visualização usa Sparklines para mostrar as tendências de dados ao longo do tempo. Use isso para decidir quando/se para alternar os modelos com base nas tendências de desempenho.
Deseja comparar vários modelos lado a lado? Tudo o que você precisa fazer é abrir várias conchas ou instâncias de terminais. Agora, em cada um deles, um por um, altere o modelo, execute o mesmo ask "prompt" e compare os resultados lado a lado. Simples!
Como os comandos da Navamai use a configuração navamai.yml na pasta atual toda vez que eles executam, você pode criar fluxos de trabalho paralelos mais complexos, multimodelo e provedores cruzados, simplesmente copiando o arquivo de configuração em várias pastas e comandos em execução lá. Dessa forma, você pode executar algumas tarefas de longa execução em um modelo local em uma pasta e terminal. Enquanto você faz o seu fluxo de trabalho do dia a dia em outro. E assim por diante.
Não há marketing comportamental ou crescimento de crescimento que uma empresa possa fazer dentro do seu prompt de comando. Você guia seu fluxo de trabalho da maneira que se sente em forma. Execute o provedor de modelos mais rápido (GROQ com LLAMA 3.1), ou o modelo mais capaz no momento (Soneto 3.5 ou GPT-4O), ou o mais recente modelo pequeno do seu laptop (Nemo Mistral) ou o modelo com o maior contexto (Gemini 1.5 Flash), você decide. Corra com wifi rápido ou sem wifi (usando modelos locais), sem restrições. Pesquise instantaneamente, pesquise, perguntas e respostas para aprender algo ou gerar um conjunto de artefatos para economizar mais tarde. Mudar para qualquer um desses fluxos de trabalho está algumas alterações em um arquivo de configuração ou em alguns comandos fáceis de lembrar no seu terminal.
Você também pode configurar nomes de modelos personalizados para mapeamento de versão real para simplificar os comandos de comutação de modelos. Com o seguinte mapeamento dos comandos para trocar de modelos, estão navamai config ask model llama ou navamai config intents model haiku e assim por diante.
model-mapping :
# Claude models
sonnet : claude-3-5-sonnet-20240620
opus : claude-3-opus-20240229
haiku : claude-3-haiku-20240307
# Ollama models
llama : llama3.1
gemma : gemma2
mistral : mistral-nemo
# Groq models
groq-mixtral : mixtral-8x7b-32768
groq-llama : llama2-70b-4096
# OpenAI models
gpt4mini : gpt-4o-mini
gpt4o : gpt-4o
# Gemini models
gemini-pro : gemini-1.5-pro
gemini-flash : gemini-1.5-flash Você decide qual modelo e provedor em que confia, ou mesmo escolhe executar um LLM localmente no seu laptop. Você está no controle de quão privados seus dados e preferências permanecem. A Navamai suporta modelos de última geração do Antrópico, Openai, Google e Meta. Você pode escolher um provedor hospedado ou ollama como um provedor de modelos local em seu laptop. Alterne entre modelos e provedores usando um comando simples, como navamai config ask model llama para mudar do modelo atual.
Você também pode carregar conjuntos de configurações de modelo personalizado mapeados para cada comando. Configure -os no arquivo navamai.yml . Aqui está um exemplo de restringir como os comandos navamai ask e navamai intents se comportam de maneira diferente usando provedores de modelos locais e hospedados.
ask :
provider : ollama
model : mistral
max-tokens : 300
save : false
system : Be crisp in your response. Only respond to the prompt
using valid markdown syntax. Do not explain your response.
temperature : 0.3
intents :
provider : claude
model : sonnet
max-tokens : 1000
save : true
folder : Embeds
system : Only respond to the prompt using valid markdown syntax.
When responding with markdown headings start at level 2.
Do not explain your response.
temperature : 0.0 Navamai salva uma trilha de comandos, prompts, modelos, pastas de pesquisa e arquivos salvos no arquivo trail.yml . Você pode visualizar isso a qualquer momento usando o Comando navamai audit para obter informações sobre o uso do seu Navamai ao longo do tempo.
Suas intenções são tarefas que você deseja executar, objetivos que deseja alcançar, planos que deseja realizar, decisões que deseja tomar ou perguntas que deseja responder. Você controla toda a sua experiência de Navamai com suas intenções. Você pode salvar suas intenções como um esboço simples das tarefas em um arquivo de texto. Você pode se lembrar deles quando precisar. Você pode executar modelos em suas intenções à medida que se sente em forma. Você pode salvar resultados com base em suas intenções.
Você pode verificar o conteúdo gerado por um LLM com validação de outro modelo. Certifique -se de executar o comando validate apenas depois de executar o comando refer intents para gerar o primeiro passe de incorporação. Use navamai validate "Financial Analysis" ou qualquer modelo de intenção que você criou. O fluxo de trabalho para validação é semelhante a expandir as intenções. Somente neste caso a configuração do modelo Validate decide qual modelo e provedor usar. Você também pode modificar o prompt de validação para verificar se há coisas específicas relevantes para o seu caso de uso. O DIFF é calculado no texto original e validado, removendo as novas linhas, espaço em branco ou formatação de marcação ao fazer a comparação de diff usando a pontuação de similaridade. Use isso para automatizar a validação de qualidade do conteúdo gerado.