Nano bots: robots alimentés par AI qui peuvent être facilement partagés en tant que fichier, conçu pour prendre en charge plusieurs fournisseurs tels que Cohere Command, Google Gemini, Maritaca AI Malitalk, Mistral AI, Olllama, Openai Chatgpt et autres, avec le support pour les outils d'appel (fonctions).
Améliorez votre productivité et votre flux de travail en apportant le pouvoir de l'intelligence artificielle à votre application d'écriture!
Créez un dossier obsidian-nano-bots dans votre .obsidian/plugins/ Répertoire à l'intérieur de votre coffre-fort:
mkdir -p .obsidian/plugins/obsidian-nano-bots Téléchargez les fichiers manifest.json , main.js et styles.css à partir de la dernière version et placez-les dans le dossier obsidian-nano-bots .
Assurez-vous que vous avez des "plugins communautaires" dans vos paramètres et redémarrez l'obsidienne.
Après le redémarrage, accédez à "Paramètres" -> "Plugins communautaires," Trouvez "Nano Bots" et activez-le. Une fois activé, vous pouvez commencer à l'utiliser en ouvrant votre palette de commandes et en recherchant des «nano bots».
Par défaut, l'accès à l'API public Nano Bots est disponible. Cependant, il ne fournit qu'une cartouche par défaut et peut parfois être lent ou indisponible en raison des limites de taux. Ceci est courant lorsque de nombreux utilisateurs du monde entier utilisent intensément l'API simultanément.
Pour obtenir les meilleures performances et la possibilité de développer et de personnaliser vos propres cartouches, il est recommandé d'utiliser vos propres informations d'identification pour exécuter votre instance de l'API localement. Cette approche offrira une expérience supérieure et personnalisée, contrairement à l'expérience pratique mais limitée fournie par l'API publique.
Pour connecter votre plugin à votre propre API locale Nano Bots, démarrez une instance locale à l'aide de Nano-Bots-API. Veuillez noter que l'API locale peut toujours s'appuyer sur des fournisseurs externes, qui a ses propres politiques concernant la sécurité et la confidentialité. Cependant, si vous choisissez d'utiliser Olllama avec des modèles open source, vous pouvez vous assurer que tout est gardé local et reste complètement privé.
Une fois que vous avez accès à l'API Nano Bots, vous pouvez aller dans "Paramètres" -> "Plugins communautaires" -> "Nano Bots" et ajouter l'adresse de l'API, qui est généralement http: // localhost: 3048:
Avec une instance API locale, non seulement vous pouvez créer des cartouches YAML personnalisées, mais vous pouvez également concevoir des cartouches de démarrage à l'aide de votre coffre-fort. Pour activer cela, accédez à "Paramètres"> "Plugins communautaires"> "nano bots" et activez "CARTUDGES CUSTOM?". La valeur par défaut du "chemin de cartouches personnalisé", recherche votre coffre-fort pour un dossier "cartouches" ou "cartouches". Vous pouvez personnaliser ce chemin si nécessaire. Après la configuration, toutes les notes créées dans ces dossiers deviennent des cartouches:
Des exemples peuvent être trouvés ici: Markdown CARTIDGES Exemples
Après l'installation, vous aurez les commandes suivantes disponibles dans la palette de commande:
La commande Evaluate envoie votre texte actuellement sélectionné à un nano bot sans aucune instruction supplémentaire.
Exemple:
Selected Text: Hi!
Nano Bot: Hello! How can I assist you today?
Démonstration:
La commande Appliquer fonctionne sur une sélection de texte. Vous sélectionnez un texte et demandez au nano bot d'effectuer une action.
Exemple:
Selected Text: How are you doing?
Prompt: translate to french
Nano Bot: Comment allez-vous ?
La commande invite fonctionne comme un chat traditionnel, vous permettant d'inviter une demande et de recevoir une réponse du nano bot.
Exemple:
Prompt: write a hello world in Ruby
Nano Bot: puts "Hello, world!"
Pour interrompre une réponse de streaming ou arrêtez d'attendre une réponse complète, vous pouvez utiliser la commande "Stop" dans la palette de commande. Ceci est utile si vous réalisez que la réponse du bot n'est pas ce que vous attendiez de votre demande.
Lors de l'exécution des commandes mentionnées précédemment, une invite apparaîtra pour vous demander de sélectionner une cartouche. La cartouche par défaut est l'interaction de chat standard. Cependant, vous pouvez créer vos propres cartouches qui apparaîtront automatiquement dans la palette de commande.
Pour plus de détails sur les cartouches, veuillez vous référer à la spécification Nano Bots.
Vous pouvez remplacer la cartouche par défaut en créant le vôtre avec le nom default.yml :
---
meta :
symbol : ?
name : Default
author : Your Name
version : 1.0.0
license : CC0-1.0
description : A helpful assistant.
provider :
id : openai
credentials :
address : ENV/OPENAI_API_ADDRESS
access-token : ENV/OPENAI_API_KEY
settings :
user : ENV/NANO_BOTS_END_USER
model : gpt-3.5-turbo Il n'y a pas de raccourcis par défaut, mais vous pouvez ajouter le vôtre en allant dans "Paramètres" -> "Hotkskeys" et à la recherche de "nano bots"
Ce sont des raccourcis recommandés que vous pouvez choisir à ajouter:
ctrl+b -> Nano Bots: EvaluateNotez que vous devez désactiver le hot-son par défaut "Toggle Bold" pour l'utiliser.
Une autre option consiste à utiliser des raccourcis et à des raccourcis clavier, ce que vous pouvez faire avec des plugins comme les raccourcis clavier:
ctrl+b ctrl+b -> Nano Bots: Evaluatectrl+b ctrl+l -> Nano Bots: Applyctrl+b ctrl+p -> Nano Bots: Promptctrl+b ctrl+k -> Nano Bots: StopNotez que vous devrez également désactiver le hot-son par défaut "Toggle Bold" pour l'utiliser.
Absolument pas, sauf si vous prenez intentionnellement des mesures pour le faire. Les fichiers sur lesquels vous travaillez ou ouvrez dans votre application d'écriture ne seront jamais téléchargés ou partagés sans votre action explicite.
Seuls les petits fragments de texte / code que vous prenez intentionnellement des mesures à partager. Le texte spécifique que vous sélectionnez lors de l'utilisation de la commande Evaluate est partagé avec l'API publique Nano Bots, qui doit également le partager avec l'API OpenAI strictement pour générer une réponse. Si vous choisissez d'utiliser votre propre API locale, cela dépendra de votre choix de fournisseurs et de configurations.
Les données que vous choisissez délibérément de partager seront transmises en toute sécurité (HTTPS) à l'API publique Nano Bots. Cette API publique est open source et disponible pour l'audit ici. Il utilise l'API OpenAI pour le traitement des données. En conséquence, toutes les données que vous choisissez de partager seront également envoyées à l'API OpenAI, qui, selon leurs politiques, n'est pas utilisée pour la formation des modèles et n'est pas conservée au-delà d'une période de 30 jours.
Le partage de fragments de données est nécessaire pour générer des sorties. Vous avez la possibilité d'utiliser votre propre instance locale de l'API Nano Bots. Cette configuration garantit que toutes les interactions se produisent localement sur votre machine, les seules données partagées étant avec votre API OpenAI personnelle. Alternativement, vous pouvez décider de ne pas utiliser également OpenAI, et à la place, connectez l'API local Nano Bots à votre propre LLM local, comme Olllama, permettant une interaction complètement locale et privée.
Pour le contenu / code privé ou confidentiel, nous vous recommandons que vous ou votre organisation effectuez une évaluation approfondie de la sécurité et de la confidentialité. Sur cette base, vous pouvez décider que l'API publique Nano Bots et les politiques de confidentialité d'Openai sont suffisantes, ou vous pouvez choisir d'utiliser votre propre configuration privée pour le fournisseur API et LLM.
Non. Si vous utilisez l'API publique Nano Bots par défaut, il n'y a aucun coût impliqué, mais vous pourriez rencontrer des problèmes de limitation ou de stabilité occasionnels. Si vous décidez d'utiliser votre propre fournisseur API et LLM, tous les coûts associés dépendront de votre fournisseur choisi. Par exemple, l'utilisation de l'API Nano Bots localement avec OpenAI nécessitera un compte de plate-forme OpenAAI payé.
Non, il s'agit d'un projet open-source sans affiliations officielles avec OpenAI ou l'un des autres fournisseurs soutenus. Il est conçu pour la compatibilité avec divers fournisseurs de LLM, OpenAI étant par défaut. Comme OpenAI est une entreprise privée, nous ne pouvons assurer aucune assurance sur leurs services, et nous n'avons aucune affiliation. Utiliser à vos risques et périls.
Ce projet suit la licence MIT. En langue claire, cela signifie:
Le logiciel est fourni tel quel. Cela signifie qu'il n'y a aucune garantie ni garantie pour cela. Cela inclut la façon dont cela fonctionne (si cela fonctionne comme vous vous y attendez), s'il est apte à votre objectif, et que cela ne nuira à rien (non-contrefaçon). Les personnes qui ont créé ou possédé ce logiciel ne peuvent pas être tenues responsables en cas de problème à cause du logiciel, que vous l'utilisiez, que vous le modifiiez ou que vous ayez autre chose que vous en faites.
En d'autres termes, il n'y a aucune promesse ou responsabilité de notre part sur ce qui se passe lorsque vous l'utilisez. Il est donc important que vous l'utilisiez à vos risques et périls et que vous décidiez à quel point vous lui faites confiance. Vous êtes celui en charge et responsable de la façon dont vous l'utilisez et des conséquences possibles de son utilisation.
npm install
npm run dev
npm run buildPour plus de détails, reportez-vous à la documentation de l'obsidienne:
Sortie de nouvelles versions:
manifest.json avec le nouveau numéro de version, tel que 1.0.1 , et la version minimale de l'obsidienne requise pour la dernière version.versions.json avec "new-plugin-version": "minimum-obsidian-version" Ainsi, les versions plus anciennes de l'obsidienne peuvent télécharger une ancienne version du plugin compatible.v Voir ici pour un exemple: https://github.com/obsianmd/obsian-sample-plugin/releasesmanifest.json , main.js , styles.css sous forme de pièces jointes binaires. Remarque: Le fichier manifest.json doit être à deux endroits, d'abord le chemin racine du référentiel et également dans la version.