Nano-Bots: KI-angetriebene Bots, die leicht als einzelne Datei geteilt werden können, um mehrere Anbieter wie Cohere-Befehl, Google Gemini, Maritaca AI Maritalk, Mistral AI, Ollama, OpenAI-Chatgpt und andere zu unterstützen, mit Unterstützung für Anrufe mit Tools (Funktionen).
Verbessern Sie Ihre Produktivität und Ihren Arbeitsablauf, indem Sie Ihre Schreib -App die Kraft der künstlichen Intelligenz bringen!
Erstellen Sie einen Ordner obsidian-nano-bots in Ihrem .obsidian/plugins/ Verzeichnis in Ihrem Tresor:
mkdir -p .obsidian/plugins/obsidian-nano-bots Laden Sie die Dateien manifest.json , main.js und styles.css aus der neuesten Version herunter und platzieren Sie sie in den Ordner obsidian-nano-bots .
Stellen Sie sicher, dass Sie "Community -Plugins" in Ihren Einstellungen aktiviert haben, und starten Sie Obsidian neu.
Gehen Sie nach dem Neustart zu "Einstellungen" -> "Community -Plugins", "Nano Bots" und aktivieren Sie es. Sobald Sie aktiviert sind, können Sie es verwenden, indem Sie Ihre Befehlspalette öffnen und nach "Nano -Bots" suchen.
Standardmäßig ist der Zugriff auf die öffentliche Nano Bots -API verfügbar. Es bietet jedoch nur eine Standardpatrone und kann aufgrund von Ratengrenzen manchmal langsam oder nicht verfügbar sein. Dies ist üblich, wenn viele Benutzer auf der ganzen Welt die API gleichzeitig intensiv verwenden.
Um die beste Leistung und die Möglichkeit zu erhalten, Ihre eigenen Patronen zu entwickeln und zu personalisieren, wird empfohlen, dass Sie Ihre eigenen Anmeldeinformationen für Anbieter verwenden, um Ihre Instanz der API lokal auszuführen. Dieser Ansatz bietet ein überlegenes und maßgeschneidertes Erlebnis im Gegensatz zu der bequemen und dennoch begrenzten Erfahrung der öffentlichen API.
Um Ihr Plugin an Ihre eigene lokale Nano-Bots-API zu verbinden, starten Sie eine lokale Instanz mit Nano-Bots-API. Bitte beachten Sie, dass die lokale API möglicherweise noch auf externe Anbieter beruht, die ihre eigenen Richtlinien für Sicherheit und Privatsphäre haben. Wenn Sie jedoch Ollama mit Open -Source -Modellen verwenden, können Sie sicherstellen, dass alles lokal gehalten wird und völlig privat bleibt.
Sobald Sie Zugriff auf die Nano Bots -API haben, können Sie zu "Einstellungen" -> "Community -Plugins" -> "Nano Bots" gehen und die API -Adresse hinzufügen, die normalerweise http: // localhost: 3048 ist:
Mit einer lokalen API -Instanz können Sie nicht nur benutzerdefinierte YAML -Patronen erstellen, sondern auch Markdown -Patronen mit Ihrem Tresor entwerfen. Um dies zu aktivieren, gehen Sie zu "Einstellungen"> "Community -Plugins"> "Nano Bots" und schalten Sie "benutzerdefinierte Patronen?" Der Standardwert für "benutzerdefinierte Patronenpfad" sucht Ihr Tresor nach einem Ordner "Patronen" oder "Patronen". Sie können diesen Pfad bei Bedarf anpassen. Nach der Konfiguration werden alle in diesen Ordnern erstellten Notizen zu Patronen:
Beispiele finden Sie hier: Beispiele für Markdown -Patronen
Nach der Installation stehen in der Befehlspalette die folgenden Befehle zur Verfügung:
Der Befehl evaluieren sendet Ihren aktuell ausgewählten Text ohne zusätzliche Anweisungen an einen Nano -Bot.
Beispiel:
Selected Text: Hi!
Nano Bot: Hello! How can I assist you today?
Demonstration:
Der Befehl anwenden funktioniert bei einer Textauswahl. Sie wählen einen Textstück aus und bitten den Nano -Bot, eine Aktion auszuführen.
Beispiel:
Selected Text: How are you doing?
Prompt: translate to french
Nano Bot: Comment allez-vous ?
Der Eingabeaufwand funktioniert wie ein traditioneller Chat, sodass Sie eine Anfrage fordern und eine Antwort vom Nano Bot erhalten können.
Beispiel:
Prompt: write a hello world in Ruby
Nano Bot: puts "Hello, world!"
Um eine Streaming -Antwort zu unterbrechen oder auf eine vollständige Antwort zu warten, können Sie den Befehl "Stop" in der Befehlspalette verwenden. Dies ist nützlich, wenn Sie erkennen, dass die Antwort des Bots nicht das ist, was Sie von Ihrer Anfrage erwartet haben.
Bei der zuvor genannten Befehle wird eine Eingabeaufforderung angezeigt, in der Sie aufgefordert werden, eine Patrone auszuwählen. Die Standardpatrone ist die Standard -Chat -Interaktion. Sie können jedoch eigene Patronen erstellen, die automatisch in der Befehlspalette angezeigt werden.
Weitere Informationen zu Patronen finden Sie in der Nano Bots -Spezifikation.
Sie können die Standardpatrone überschreiben, indem Sie Ihre eigene mit dem Namen default.yml erstellen:
---
meta :
symbol : ?
name : Default
author : Your Name
version : 1.0.0
license : CC0-1.0
description : A helpful assistant.
provider :
id : openai
credentials :
address : ENV/OPENAI_API_ADDRESS
access-token : ENV/OPENAI_API_KEY
settings :
user : ENV/NANO_BOTS_END_USER
model : gpt-3.5-turbo Es gibt keine Standardverknüpfungen, aber Sie können Ihre eigenen hinzufügen, indem Sie zu "Einstellungen" -> "Hotkeys" und nach "Nano -Bots" suchen und nach "Nano -Bots" suchen.
Dies sind empfohlene Verknüpfungen, die Sie möglicherweise hinzufügen möchten:
ctrl+b -> Nano Bots: EvaluateBeachten Sie, dass Sie den Standard -"-Stwilling" -Talte -Hotkey deaktivieren müssen, um dies zu verwenden.
Eine weitere Option ist die Verwendung von Akkordhotkeys , die Sie mit Plugins wie Sequence Hotkeys durchführen können:
ctrl+b ctrl+b -> Nano Bots: Evaluatectrl+b ctrl+l -> Nano Bots: Applyctrl+b ctrl+p -> Nano Bots: Promptctrl+b ctrl+k -> Nano Bots: StopBeachten Sie, dass Sie auch den Standard -"-Schucke -Hotkey" Deaktivieren müssten, um dies zu verwenden.
Absolut nicht, es sei denn, Sie ergreifen absichtlich Maßnahmen, um dies zu tun. Die Dateien, an denen Sie in Ihrer Schreib -App arbeiten oder an denen Sie geöffnet sind, werden ohne Ihre explizite Aktion niemals hochgeladen oder freigegeben.
Nur kleine Textfragmente/Code, die Sie absichtlich Maßnahmen ergreifen, um sie zu teilen. Der spezifische Text, den Sie während der Verwendung des Bewertungsbefehls ausgewählt haben, wird an die öffentliche API von Nano Bots geteilt, die ihn auch mit der OpenAI -API teilen muss, um eine Antwort zu generieren. Wenn Sie Ihre eigene lokale API verwenden, hängt dies von Ihrer Wahl für Anbieter und Konfigurationen ab.
Die Daten, die Sie absichtlich teilen, werden sicher (HTTPS) an die öffentliche API von Nano Bots übertragen. Diese öffentliche API ist Open Source und zur Prüfung zur Prüfung erhältlich. Es verwendet OpenAI -API für die Datenverarbeitung. Infolgedessen werden alle Daten, die Sie teilen, auch an die OpenAI-API gesendet, die nach ihren Richtlinien nicht für das Modelltraining verwendet und nicht über einen Zeitraum von 30 Tagen zurückgehalten werden.
Das Teilen von Datenfragmenten ist erforderlich, um Ausgänge zu generieren. Sie haben die Möglichkeit, Ihre eigene lokale Instanz der Nano Bots -API zu verwenden. Dieses Setup stellt sicher, dass alle Interaktionen lokal auf Ihrer Maschine stattfinden, wobei die einzigen Daten mit Ihrer persönlichen OpenAI -API geteilt werden. Alternativ können Sie sich entscheiden, auch OpenAI nicht zu verwenden und stattdessen die lokale Nano Bots -API mit Ihrem eigenen lokalen LLM wie Ollama zu verbinden, um eine vollständig lokale und private Interaktion zu ermöglichen.
Für private oder vertrauliche Inhalte/Code empfehlen wir, dass Sie oder Ihre Organisation eine gründliche Sicherheits- und Datenschutzbewertung durchführen. Auf dieser Grundlage können Sie entscheiden, dass die öffentliche API der Nano Bots und die Datenschutzrichtlinien von OpenAI ausreichen, oder Sie können Ihr eigenes privates Setup für den API und den LLM -Anbieter verwenden.
Nein. Wenn Sie die Standard -API von Nano Bots verwenden, sind keine Kosten erforderlich, aber Sie könnten gelegentlich zugängliche Limitierungs- oder Stabilitätsprobleme stoßen. Wenn Sie sich entscheiden, Ihren eigenen API- und LLM -Anbieter zu verwenden, hängen alle zugehörigen Kosten von Ihrem ausgewählten Anbieter ab. Beispielsweise erfordert die Verwendung der Nano Bots API vor Ort mit OpenAI ein gezahltes OpenAI -Plattformkonto.
Nein, dies ist ein Open-Source-Projekt ohne formelle Zugehörigkeit zu OpenAI oder einem der anderen unterstützten Anbieter. Es ist für die Kompatibilität mit verschiedenen LLM -Anbietern ausgelegt, wobei OpenAI der Standard ist. Da OpenAI ein privates Unternehmen ist, können wir keine Zusicherungen über ihre Dienstleistungen erbringen, und wir haben überhaupt keine Zugehörigkeit. Verwenden Sie auf eigenes Risiko.
Dieses Projekt folgt der MIT -Lizenz. In einfacher Sprache bedeutet es:
Die Software wird so bereitgestellt, wie sie ist. Dies bedeutet, dass es keine Garantie oder Garantie dafür gibt. Dies beinhaltet, wie gut es funktioniert (falls es wie Sie erwartet), wenn es für Ihren Zweck geeignet ist und dass es nichts schaden (Nichtverletzung). Die Personen, die diese Software gemacht oder besitzen, können nicht verantwortlich gemacht werden, wenn etwas schief durch die Software, unabhängig davon, ob Sie sie verwenden, sie ändern oder etwas anderes, was Sie damit machen.
Mit anderen Worten, es gibt kein Versprechen oder Verantwortung von uns darüber, was passiert, wenn Sie es verwenden. Es ist also wichtig, dass Sie es auf eigenes Risiko verwenden und entscheiden, wie sehr Sie ihm vertrauen. Sie sind derjenige, der verantwortlich ist und dafür verantwortlich ist, wie Sie es verwenden, und die möglichen Konsequenzen seiner Verwendung.
npm install
npm run dev
npm run buildWeitere Informationen finden Sie in der Obsidian -Dokumentation:
Neuveröffentlichungen veröffentlichen:
manifest.json mit der neuen Versionsnummer wie 1.0.1 und der für die neuesten Version erforderlichen Mindestversion der Obsidian.versions.json mit "new-plugin-version": "minimum-obsidian-version" damit ältere Versionen von Obsidian eine ältere Version des kompatibelen Plugins herunterladen können.v . Ein Beispiel finden Sie hier: https://github.com/obsidianmd/obsidian-sample-plugin/releasesmanifest.json , main.js , styles.css als binäre Anhänge hoch. HINWEIS: Die Datei Manifest.json muss an zwei Stellen sein, zuerst den Stammpfad des Repositorys und auch in der Veröffentlichung.