Nano Bots: Bots movidos a IA que podem ser facilmente compartilhados como um único arquivo, projetado para suportar vários fornecedores, como Coere Command, Google Gemini, Maritaca AI Conachitalk, Mistral AI, Ollama, OpenAi Chatgpt e outros, com suporte para chamadas (funções).
Aprimore sua produtividade e fluxo de trabalho, trazendo o poder da inteligência artificial ao seu aplicativo de redação!
Crie uma pasta obsidian-nano-bots em seu .obsidian/plugins/ Diretório dentro do seu cofre:
mkdir -p .obsidian/plugins/obsidian-nano-bots Faça o download dos arquivos manifest.json , main.js e styles.css a partir da versão mais recente e coloque-os dentro da pasta obsidian-nano-bots .
Certifique -se de ter "plugins comunitários" ativados em suas configurações e reinicie a obsidiana.
Depois de reiniciar, vá para "Configurações" -> "Plugins da comunidade", encontre "nano robôs" e habilite. Uma vez ativado, você pode começar a usá -lo abrindo sua paleta de comando e pesquisando "Nano Bots".
Por padrão, o acesso à API pública de nano -bots está disponível. No entanto, ele fornece apenas um cartucho padrão e às vezes pode estar lento ou indisponível devido a limites de taxa. Isso é comum quando muitos usuários em todo o mundo usam intensamente a API simultaneamente.
Para obter o melhor desempenho e a oportunidade de desenvolver e personalizar seus próprios cartuchos, é recomendável que você use suas próprias credenciais para executar sua instância da API localmente. Essa abordagem fornecerá uma experiência superior e personalizada, em contraste com a experiência conveniente, porém limitada, fornecida pela API pública.
Para conectar seu plug-in à sua própria API local de nano-bots, inicie uma instância local usando Nano-BOTS-API. Observe que a API local ainda pode depender de fornecedores externos, que possuem suas próprias políticas sobre segurança e privacidade. No entanto, se você optar por usar o Ollama com modelos de código aberto, poderá garantir que tudo seja mantido local e permaneça completamente privado.
Depois de ter acesso à API Nano Bots, você pode ir para "Configurações" -> "Plugins da comunidade" -> "Nano Bots" e adicionar o endereço da API, que geralmente é http: // localhost: 3048:
Com uma instância da API local, não apenas você pode criar cartuchos YAML personalizados, mas também pode projetar cartuchos de marcação usando seu cofre. Para ativar isso, vá para "Configurações"> "Plugins da comunidade"> "Nano Bots" e ligue "Cartuchos personalizados?". O valor padrão do "caminho de cartuchos personalizados", pesquisa seu cofre para uma pasta "cartuchos" ou "cartuchos". Você pode personalizar esse caminho, se necessário. Após a configuração, quaisquer notas criadas nessas pastas se tornam cartuchos:
Exemplos podem ser encontrados aqui: Exemplos de cartuchos de marcação
Após a instalação, você terá os seguintes comandos disponíveis no comando palete:
O comando de avaliação envia seu texto atualmente selecionado para um bot nano sem instruções adicionais.
Exemplo:
Selected Text: Hi!
Nano Bot: Hello! How can I assist you today?
Demonstração:
O comando Aplicar funciona em uma seleção de texto. Você seleciona um texto e pede ao Nano Bot para executar uma ação.
Exemplo:
Selected Text: How are you doing?
Prompt: translate to french
Nano Bot: Comment allez-vous ?
O comando prompt funciona como um bate -papo tradicional, permitindo que você solicite uma solicitação e receba uma resposta do Nano Bot.
Exemplo:
Prompt: write a hello world in Ruby
Nano Bot: puts "Hello, world!"
Para interromper uma resposta de streaming ou parar de esperar por uma resposta completa, você pode usar o comando "Stop" na paleta de comando. Isso é útil se você perceber que a resposta do bot não é o que você esperava do seu pedido.
Ao executar os comandos mencionados anteriormente, aparecerá um prompt solicitando que você selecione um cartucho. O cartucho padrão é a interação padrão de bate -papo. No entanto, você pode criar seus próprios cartuchos que aparecerão automaticamente na paleta de comando.
Para mais detalhes sobre cartuchos, consulte a especificação Nano Bots.
Você pode substituir o cartucho padrão, criando o seu próprio com o nome default.yml :
---
meta :
symbol : ?
name : Default
author : Your Name
version : 1.0.0
license : CC0-1.0
description : A helpful assistant.
provider :
id : openai
credentials :
address : ENV/OPENAI_API_ADDRESS
access-token : ENV/OPENAI_API_KEY
settings :
user : ENV/NANO_BOTS_END_USER
model : gpt-3.5-turbo Não há atalhos padrão, mas você pode adicionar o seu próprio, indo a "Configurações" -> "Mercados" e pesquisando "Nano Bots"
Estes são atalhos recommentados que você pode escolher Adicionar:
ctrl+b -> Nano Bots: EvaluateObserve que você precisa desativar a tecla de atalho "alternar em negrito" para usar isso.
Outra opção é usar teclas de atalho de acordes , o que você pode fazer com plugins como as teclas de hot teclas:
ctrl+b ctrl+b -> Nano Bots: Evaluatectrl+b ctrl+l -> Nano Bots: Applyctrl+b ctrl+p -> Nano Bots: Promptctrl+b ctrl+k -> Nano Bots: StopObserve que você também precisaria desativar a tecla de atalho "alternar em negrito" para usar isso.
Absolutamente não, a menos que você tome medidas intencionalmente para fazê -lo. Os arquivos em que você está trabalhando ou aberto em seu aplicativo de redação nunca serão enviados ou compartilhados sem sua ação explícita.
Apenas pequenos fragmentos de texto/código que você intencionalmente toma para compartilhar. O texto específico que você seleciona ao usar o comando de avaliação é compartilhado com a API pública Nano Bots, que também precisa compartilhá -lo com a API OpenAI estritamente para gerar uma resposta. Se você optar por usar sua própria API local, ela dependerá de sua escolha de provedores e configurações.
Os dados que você escolher deliberadamente compartilhar serão transmitidos com segurança (HTTPS) para a API pública de Nano Bots. Esta API pública é de código aberto e está disponível para auditoria aqui. Emprega API OpenAI para processamento de dados. Como resultado, quaisquer dados que você optarem por compartilhar também serão enviados para a API OpenAI, que de acordo com suas políticas, não são usados para treinamento de modelos e não são mantidos além de um período de 30 dias.
É necessário compartilhar fragmentos de dados para gerar saídas. Você tem a opção de usar sua própria instância local da API Nano Bots. Essa configuração garante que todas as interações ocorram localmente em sua máquina, com os únicos dados compartilhados sendo sua API pessoal do OpenAI. Como alternativa, você pode decidir não usar o OpenAI também e, em vez disso, conectar a API local de nano -bots ao seu próprio LLM local, como Ollama, permitindo uma interação completamente local e privada.
Para conteúdo/código privado ou confidencial, recomendamos que você ou sua organização realizem uma avaliação completa de segurança e privacidade. Com base nisso, você pode decidir que a API pública de Nano Bots e as políticas de privacidade da OpenAI são suficientes, ou você pode optar por usar sua própria configuração privada para o fornecedor da API e LLM.
Não. Se você estiver usando a API Public Public Public Public, não há custo envolvido, mas pode encontrar problemas ocasionais de limitação ou estabilidade. Se você decidir usar seu próprio provedor de API e LLM, quaisquer custos associados dependerão do provedor escolhido. Por exemplo, o uso da API Nano Bots localmente com o OpenAI exigirá uma conta de plataforma OpenAI paga.
Não, este é um projeto de código aberto, sem afiliações formais com o OpenAI ou qualquer outro fornecedor apoiado. Ele foi projetado para compatibilidade com vários fornecedores de LLM, sendo o OpenAI o padrão. Como o Openai é uma empresa privada, não podemos fornecer garantias sobre seus serviços e não temos afiliações. Use por sua conta e risco.
Este projeto segue a licença do MIT. Em linguagem simples, significa:
O software é fornecido como é. Isso significa que não há garantia ou garantia para isso. Isso inclui o quão bem ele funciona (se funciona como você espera), se for adequado para o seu objetivo e que não prejudicará nada (não violação). As pessoas que fizeram ou possuem esse software não podem ser responsabilizadas se algo der errado por causa do software, esteja você usando, mudando ou qualquer outra coisa que esteja fazendo com ele.
Em outras palavras, não há promessa ou responsabilidade sobre o que acontece quando você a usa. Portanto, é importante que você o use por seu próprio risco e decida o quanto você confia. Você é o responsável e responsável por como você o usa e pelas possíveis consequências de seu uso.
npm install
npm run dev
npm run buildPara mais detalhes, consulte a documentação da obsidiana:
Lançamento de novos lançamentos:
manifest.json com o novo número da versão, como 1.0.1 , e a versão mínima de obsidiana necessária para a versão mais recente.versions.json com "new-plugin-version": "minimum-obsidian-version" para que as versões mais antigas da obsidiana possam baixar uma versão mais antiga do plug-in compatível.v . Veja aqui para um exemplo: https://github.com/obsidianmd/obsidian-sample-plugin/releasesmanifest.json , main.js , styles.css como anexos binários. Nota: O arquivo manifest.json deve estar em dois lugares, primeiro o caminho raiz do repositório e também na liberação.