Verwenden Sie Navamai, um Ihre Produktivität und Ihren Workflow mit persönlicher, schneller und hochwertiger KI zu beenden. Verwandeln Sie Ihr Terminal in eine konfigurierbare, interaktive und unauffällige persönliche AI -App. Kraft von 15 LLMs und 7 Anbietern an Ihren Fingerspitzen. Kombinieren Sie mit Workflows in Markdown, VS -Code, Obsidian und GitHub. Erhalten Sie mit drei einfachen Befehlen produktiv.
Befehl ist alles, was Sie brauchen: Die LLM Science -Fans werden also das Wortspiel in unserem Slogan bekommen. Es ist ein Stück auf dem berühmten Papier, das die Weltarchitektur der Welt zur Transformatormodell vorgestellt hat - Aufmerksamkeit ist alles, was Sie brauchen. Mit Navamai ist ein einfacher Befehl über Ihr bevorzugter Terminal oder Shell alles, was Sie brauchen, um ein großes oder kleines Sprachmodell auf Ihre Wünsche zu biegen. Navamai bietet eine reiche Benutzeroberfläche genau dort innerhalb Ihrer Eingabeaufforderung. Keine Browser -Registerkarten zum Öffnen, keine Apps zu installieren, kein Kontextschalter ... nur reiner, einfacher, schneller Workflow. Probieren Sie es mit einem einfachen Befehl wie ask "create a table of planets" und sehen Sie, wie Ihr Terminal wie eine Chat -Benutzeroberfläche mit schnellem Streaming -Antworten, Tabellen mit Markdown -Formatierungen und sogar Codeblöcken mit Farb -Highlights zum Leben erweckt wird, ob Ihre Eingabeaufforderung Code als Antwort benötigt! Navamai hat 14 Befehle veröffentlicht, um Ihren persönlichen KI -Workflow anzupassen.
Topmodelle und Anbieter: Sie können private Modelle oder Hosted Frontier LLMs mühelos wechseln. Navamai bietet konfigurierbare Unterstützung für mehr als 15 führende Modelle (GPT 4O, Sonnet 3.5, Gemini 1.5 Pro, Mistral Nemo, Sonar Lama 3.1 ...) von 7 Anbietern (Ollama, Anthropic, Openai, Groq, Google, Bedrock und Verwirrung).
Markdown -Workflows: Navamai funktioniert mit Markdown -Inhalten (Textdateien mit einfachen Formatierungsbefehlen). Sie können es also mit vielen beliebten Tools wie VS Code und Obsidian verwenden, um einen benutzerdefinierten Workflow, der Ihr Handwerk verbessert, schnell und nahtlos zu entwerfen.
Tun Sie mehr mit weniger: Navamai ist sehr einfach aus dem Box zu verwenden, wenn Sie seine Handvoll mächtiger Befehle lernen. Wenn Sie sich bequem machen, können Sie Navamai -Befehle einfach anpassen, indem Sie einfach eine Konfigurationsdatei ändern und Navamai an Ihren Workflow ausrichten. Alles in Navamai hat vernünftige Standardeinstellungen, um schnell loszulegen.
Machen Sie es zu Ihrem eigenen: Wenn Sie bereit sind, ist alles konfigurierbar und erweiterbar, einschließlich Befehle, Modelle, Anbieter, Eingabeaufforderungen, Modellparameter, Ordner und Dokumenttypen. Eine andere magische Sache passiert, wenn die Schnittstelle zu Ihrer generativen KI eine bescheidene Eingabeaufforderung ist. Sie werden ein Gefühl der Kontrolle erleben. Kontrolle über Ihren Workflow, Ihre Privatsphäre, Ihre Absichten und Ihre Artefakte. Sie haben die Kontrolle über Ihren persönlichen KI -Workflow mit Navamai vollständig.
Gehen Sie in einen Ordner, in dem Sie Navamai initialisieren möchten. Dies kann Ihr Obsidian -Gewölbe oder ein VC -Code -Projektordner oder sogar ein leerer Ordner sein.
pip install -U navamai # upgrade or install latest NavamAI
navamai init # copies config file, quick start samples
navamai id # identifies active provider and model
ask " How old is the oldest pyramid? " # start prompting the model Sie müssen Modell-Anbieterschlüssel einrichten. Bearbeiten Sie Ihre Umgebungskonfiguration ~/.zshrc .
export ANTHROPIC_API_KEY= # https://docs.anthropic.com/en/api/getting-started
export OPENAI_API_KEY= # https://openai.com/index/openai-api/
export GROQ_API_KEY= # https://console.groq.com/keys
export GEMINI_API_KEY= # https://ai.google.dev/gemini-api
export PERPLEXITY_KEY= # https://www.perplexity.ai/settings/api Wenn Sie kein Modell verwenden möchten, müssen Sie nur die entsprechenden Einträge von navamai.yml im model-mapping und den provider-model-mapping Abschnitten entfernen. Stellen Sie auch sicher, dass sich die anderen Modellkonfigurationen nur auf verfügbare Modelle beziehen.
Für lokale Modelle installieren Sie Ollama und laden Sie die neuesten Modelle herunter, die Sie ausführen möchten.
Jetzt sind Sie bereit, alle Modelle und Anbieter zu testen.
navamai test ask
navamai test visionÜberspringen Sie diesen Abschnitt, wenn Ihre Python -Umgebung bereits funktioniert.
Zunächst sollten Sie das neueste Python in Ihrem System ausführen, wobei Python Package Manager auf die neueste Aktion aktualisiert wurde.
python --version
# should return Python 3.12.x or higher as on Sep'24pyenv -Versionsmanager einzustellen.Wechseln Sie zunächst in das Verzeichnis in Ihrem VS -Code -Arbeitsbereich, Obsidian Vault oder Ordner, in dem Sie Navamai installieren möchten. Erstellen Sie als nächstes die virtuelle Umgebung.
python -m venv env Jetzt können Sie Ihre virtuelle Umgebung so aktivieren. Sie werden feststellen, dass das Verzeichnis (env) vorangestellt ist, um anzuzeigen, dass Sie jetzt in der virtuellen Umgebung laufen.
. env/bin/activate Um die virtuelle Umgebung mithilfe des Befehls deactivate zu lassen. Nehmen Sie die Verwendung des gleichen Befehls wie früher wieder ein.
Jetzt sind Sie bereit, Navamai zu installieren.
*Beachten Sie, dass navamai , ask , image und refer vier Befehle auf der Top -Ebene sind, wenn Sie Navamai installieren.
| Befehl | Beispiel und Beschreibung |
|---|---|
| * fragen | ask "your prompt"Rufen Sie die LLM für eine schnelle, knackige (Standard -bis zu 300 Wörter) auf, Einzelumdrehung Antwort askDurchsucht im Ordner konfigurierter Eingabeaufforderungen und listet die Eingabeaufforderung Vorlagen für den Benutzer auf. |
| Prüfung | navamai auditAnalysieren Sie Ihre eigene Verwendung von Navamai im Laufe der Zeit mit einem aufschlussreichen Befehlszeilen -Dashboard und dem Markdown -Bericht. |
| Konfiguration | navamai config ask save trueEditor navamai.yml -Dateikonfiguration aus der Befehlszeile |
| versammeln | navamai gather "webpage url"Kratzen Sie einen Artikel von einer Webseite ohne Menüs, Seitenleiste und Fußzeile sauber ab. Enthält Bilder. Speichert als Markdown -Format, ähnlich der HTML -Quelle. Verweisen Sie den abgekratzten Markdown -Inhalt mit dem Befehl refer gather .Verwenden Sie Vision auf abgekratzten Bildern mit dem navamai vision Command. |
| * verweisen | refer text-to-extractDurchsuchen Sie eine Reihe von Rohtextdateien und führen Sie benutzerdefinierte Eingabeaufforderungen aus, um neue strukturierte Inhalte zu extrahieren. refer inline-prompts-to-runFühren Sie die Eingabeaufforderungen aus, die in den Text eingebettet sind, um vorhandene Dokumente zu erweitern, zu ändern und zu konvertieren. refer intentsErweitern Sie eine Reihe von Absichten und Eingabeaufforderungen innerhalb einer Absatzvorlage refer your-commandSie können Ihre eigenen Erweiterungen so konfigurieren, dass Sie den Befehl beziehen, indem Sie einfach eine der vorhandenen refer-existing Modellkonfigurationen kopieren und ändern. |
| laufen | navamai runDurchsuchen Sie Code für Markdown -Dateien mit Codeblöcken, erstellen, richten Sie die App in einem einzigen Befehl aus!Die Code -Ordner -Markdown -Dateien mit Codeblöcken werden mit dem Befehl ask erstellt, Create Vite App.md . |
| Ausweis | navamai idIdentifiziert den aktuellen Anbieter und Modell für ask -Befehlnavamai id section-nameIdentifiziert den Anbieter und das Modell, das in einem bestimmten Abschnitt definiert ist |
| * Bild | imageWählen Sie eine Eingabeaufforderungsvorlage, um ein Bild zu generieren. image "Prompt for image to generate"Aufforderung, ein Bild zu generieren. |
| init | navamai initInitialisieren Sie Navamai in jedem Ordner. Kopiert navamai.yml Standardkonfiguration und Schnellstartabsichten und initieren Ordner und Dateien. Überprüft vor dem Überschreiben. Verwenden Sie die Option -Force -Option, um Dateien und Ordner überschreiben zu können. |
| Absichten | navamai intents "Financial Analysis"Wählen Sie interaktiv aus einer Liste von Absichten in einer Vorlage aus |
| verschmelzen | navamai merge "Source File"Findet Source File updated mit Platzhalter -Tags [merge here] oder als benutzerdefinierter in merge -Konfiguration definiert ist, und verschmelzen dann die beiden Dateien in Source File merged . Verwenden Sie zusammen mit dem Befehl refer inline-prompts-to-run um die Anzahl der Token zu verringern, die beim Bearbeiten langer Text für den Kontext bearbeitet werden, aber nur einen Abschnitt aktualisieren. |
| Teilt | navamai split "Large File"Verwenden Sie diesen Befehl, um eine große Datei innerhalb eines bestimmten Verhältnisses des Zielmodellkontexts in Brocken aufzuteilen. Sie können das Zielmodell und das Verhältnis im split -Abschnitt der Konfiguration konfigurieren. Die Originaldatei bleibt unberührt und neue Dateien mit demselben Namen und part # Suffix werden erstellt. |
| prüfen | navamai test askTests Navamai -Befehl unter Verwendung aller in navamai.yml -Konfiguration definierten Anbieter und Modelle bieten eine Testzusammenfassung.navamai test visionTest Vision Modelle. |
| Trends | navamai trendsVisualisieren Sie Latenz- und Token -Länge -Trends auf der Grundlage von navamai test für ask und vision -Befehle zwischen Modellen und Anbietern. Sie können sich für einen Zeitraum von Tagen anhand der Befehlsoption --days 7 anwenden. |
| bestätigen | navamai validate "Financial Analysis"Validiert früher generierte Einbettungen, die ein anderes Modell ausführen, und meldet die prozentuale Differenz zwischen validierten und ursprünglichen Inhalten. |
| Vision | navamai vision -p path/to/image.png "Describe this image"Führt Vision-Modelle auf Bildern aus lokalem Pfad (-p), URL (-U) oder Kamera (-c) aus und reagiert basierend auf der Eingabeaufforderung. |
Wenn Sie Navamai mit wenigen einfachen Befehlen in Ihrem Terminal verwenden, können Sie einen einfachen, aber leistungsstarken persönlichen KI -Content -Manager mit Ihrem Markdown -Tool der Wahl wie Obsidian oder VS -Code erstellen. Sie können beispielsweise partielle Blogs schreiben, Ihre Saatgutideen schreiben, mit einer Liste von Absichten und Aufforderungen beginnen oder Teilnotizen aus einer Vorlesung erfassen, in der Sie leicht abgelenkt wurden.
Anschließend können Sie den Befehl refer in Verbindung mit benutzerdefinierten refer-section innerhalb von navamai.yml verwenden, um diese teilweise, unvollständigen oder Saatgutinhalte in vollständige Beiträge, Notizen, Artikel, Eingabeaufentwicklungsvorlagen und sogar gut recherchierte Papiere zu erweitern. Sie können mit der Auswahl der Modelle und Anbieter experimentieren, die Modelleinstellungen in der Konfiguration nach Dokumententyp einstellen, benutzerdefinierte Ordner für Ihren Inhalt definieren und dokumentspezifische Systemaufforderungen angeben, um genau das Ergebnis zu erhalten, das Sie basierend auf dem Typ des Dokuments wünschen. Sie müssen sich nur an einen einfachen Befehl refer und Sie sind alle festgelegt.
Schauen Sie sich als kurzes Beispiel den Posts -Ordner mit einem teilweise geschriebenen Beitrag zu Startup -Wachstumstrategien an. Sehen Sie sich nun den zugehörigen Konfigurationsbereich in navamai.yml an, um Beiträge zu erweitern.
refer-post-to-update :
lookup-folder : Posts
max-tokens : 4000
model : sonnet
provider : claude
save : true
save-folder : Posts
system : You will be given a partially written blog post on a topic.
Your job as an expert blog writer is to expand the post...
temperature : 0.5 Bitte beachten Sie, dass wir für die Kürze die vollständige Systemaufforderung hier nicht auflisten. Sie können es offensichtlich zu Ihrem Workflow ändern. Im Moment, rennen Sie einfach den Befehl refer post-to-update "startup-growth-hacking" im Working-Ordner, in dem Sie Navamai initialisiert haben. Bald beginnt die Modellantwort in Ihr Terminal zu streamen. Der erweiterte Beitrag wird im Ordner Posts mit updated Präfix gespeichert, sodass Sie mit dem Original vergleichen können.
Um einen neuen Dokumenttyp wie Forschungsarbeiten, Klassennotizen, Kochrezepte oder was auch immer zu erstellen, müssen Sie nur einen der Abschnitte refer-post-to-update oder refer-intents-to-expand refer-notes-to-summarize und anpassen. Anschließend können Sie einen benutzerdefinierten Befehl auf Ihrem neuen Dokumenttyp wie refer notes-to-summarize "your-notes-file" ausführen und die gleichen Ergebnisse erzielen.
In Kombination mit anderen Navamai -Befehlen kann dieser Workflow noch leistungsfähiger werden. Beginnen Sie beispielsweise, indem Sie Ihre Dokumentenvorlage für eine Reihe von Absichten und Aufforderungen als einfacher Markdown definieren. Zum Beispiel werden hier Financial Analysis oder Product Management gezeigt. Als nächstes finden Sie einige Absichten als Überschriften wie Macro Factors Impact Stocks oder Top Companies by ROCE und so weiter beeinflussen. Fügen Sie dann einfache Eingabeaufforderungen unter diesen Absichten hinzu, um Inhalte zu generieren. Sie können nun Navamai verwenden, um den Satz von Absichten und Eingabeaufforderungen in Ihrer Dokumentvorlage zu erweitern, wobei der Befehl refer intents-to-expand "Financial Analysis" .
Führen Sie nun navamai intents-to-expand "Financial Analysis" durch und wählen Sie eine Liste von Absichten, um als Inhaltseinbettungen zu generieren. Die Antwort wird automatisch im Ordner Embeds gespeichert und die Einbettung ist sofort in Ihrer Dokumentvorlage verknüpft. Spülen, wiederholen.
Dieser Workflow kann sehr schnell nützlich werden. Da jede Vorlage verknüpfte Einbettungen hat, kann die Obsidian -Diagrammansicht verwendet werden, um die Links zu visualisieren. Sie können kreative und verknüpfte Vorlagen erhalten oder sogar erzeugte Einbettungen mit mehr Absichten verbessern. Dies bedeutet natürlich auch, dass Sie alle großen Obsidian -Plugins verwenden können, um Websites, PDFs und mehr zu generieren. Deine Kreativität + Obsidian + navamai = Magie!
NavamaI bietet konfigurierbare Unterstützung für mehr als 15 führende Modelle von fünf Anbietern (Ollama, Anthropic, Openai, GROQ, Google). Der navamai test kann verwendet werden, um jede der Navamai -Befehle über alle Anbieter- und Modellkombinationen auszuführen und mit einer Zusammenfassung der Modelltest- und Bewertungsergebnisse zu reagieren. Verwenden Sie dies, um Modelle und Anbieter schnell zu vergleichen sowie ein neues Modell oder Anbieter in der Konfiguration hinzuzufügen oder zu entfernen.
Dieser Befehl ist super nützlich, wenn die Modellantwortzeit (Latenz), die Antwortqualität (folgt es dem System und Eingabeaufforderung an, Anweisungen), Antwortgenauigkeit und Tokenlänge (Kosten) für dieselbe Eingabeaufforderung. Sie können die Testaufforderungen in navamai.yml im test konfigurieren.
Hier ist ein Beispiel für das Ausführen navamai test vision Command und die daraus resultierende Testzusammenfassung. Wenn wir diese Standard-Eingabeaufforderung und das Bild teilen, teilen wir das Bild von rund 150-160 Personen, die in unmittelbarer Nähe in einem Kreis stehen und das Modell auffordern, die Anzahl der Personen zu zählen. Die richtige Zahl liegt zwischen 150-160. Dies kann verwendet werden, um die relative Genauigkeit jedes Modells basierend auf der Antwort zu berechnen. Wie genau die Antwort der Systemaufforderung und die Eingabeaufforderung der Benutzer folgt, zeigt die Qualität der Reaktion an.
Sie können auch bemerken, dass die Antwortzeiten proportional zur Modellgröße erscheinen. Für Claude, Opus> Sonnet> Haiku. Für Gemini, Pro> Flash. Für OpenAI, GPT-4O> GPT-4-Mini.
In ähnlicher Weise können Sie navamai test ask -Befehl ausführen, um alle Modelle und Anbieter über alle Modelle und Anbieter zu testen. In diesem Lauf ist COQ möglicherweise zu den schnellsten Anbietern, wenn es um die Reaktionszeit geht.
Natürlich benötigen Sie möglicherweise mehrere Testläufe, um eine bessere Intuition der Antwortzeiten zu erhalten, da es mehrere Faktoren gibt, die eine andere Latenz als die Modellgröße oder -architektur wie die Netzwerklatenz beeinflussen, die sich möglicherweise über mehrere Testläufe hinweg ändern.
Jeder navamai test Testbefehl speichert die Testzusammenfassungsdaten im Ordner Metrics mit dem Zeitstempel und dem Anbietermodell. Im Laufe der Zeit können Sie Trends der Latenz- und Token -Zählmetriken sichtbar machen, um festzustellen, ob Modelle konsequent durchgeführt werden. Führen Sie den Befehl navamai trends aus, um Trends für 7 Tage zu sehen (Standard).
Die Visualisierung verwendet Sparklines, um Datentrends im Laufe der Zeit anzuzeigen. Verwenden Sie dies, um zu entscheiden, wann/ob die Modelle basierend auf Leistungstrends wechseln soll.
Möchten Sie mehrere Modelle nebeneinander vergleichen? Alles, was Sie tun müssen, ist mehrere Schalen oder Terminalinstanzen zu öffnen. Jetzt in jedem von diesen nacheinander das Modell ändern, die gleiche ask "prompt" ausführen und die Ergebnisse nebeneinander vergleichen. Einfach!
Da die Befehle von Navamai bei jedem Ausführen die navamai.yml -Konfiguration im aktuellen Ordner verwenden, können Sie komplexere parallele Auslauf-, Multi-Model- und Cross-Provider-Workflows erstellen, indem Sie die Konfigurationsdatei einfach in mehrere Ordner kopieren und dort Befehle ausführen. Auf diese Weise können Sie einige langjährige Aufgaben auf einem lokalen Modell in einem Ordner und einem Terminal ausführen. Während Sie Ihren täglichen Workflow in einem anderen machen. Und so weiter.
Es gibt kein Verhaltensmarketing oder Wachstum, das ein Unternehmen in Ihrer Eingabeaufforderung hackt. Sie führen Ihren Workflow so, wie Sie sich fit fühlen. Führen Sie den schnellsten Modellanbieter (COQ mit LAMA 3.1) oder das derzeit fähigste Modell (Sonnet 3.5 oder GPT-4O) oder das neueste kleine Modell auf Ihrem Laptop (Mistral NEMO) oder das Modell mit dem größten Kontext (Gemini 1.5) aus oder entscheiden Sie. Führen Sie mit schnellem WLAN oder No-WiFi (unter Verwendung lokaler Modelle) keine Einschränkungen aus. Suchen Sie sofort, recherchieren Sie und Antworten, um etwas zu lernen oder eine Reihe von Artefakten zu generieren, um für später zu sparen. Das Umschalten auf einen dieser Workflows sind einige Änderungen in einer Konfigurationsdatei oder einige einfach zu merkende Befehle auf Ihrem Terminal.
Sie können benutzerdefinierte Modellnamen auch für die tatsächliche Modellversionszuordnung konfigurieren, um die Befehle zur Modellschaltung zu vereinfachen. Mit den folgenden Zuordnungen der Befehle zu Switch -Modellen sind navamai config ask model llama oder navamai config intents model haiku usw.
model-mapping :
# Claude models
sonnet : claude-3-5-sonnet-20240620
opus : claude-3-opus-20240229
haiku : claude-3-haiku-20240307
# Ollama models
llama : llama3.1
gemma : gemma2
mistral : mistral-nemo
# Groq models
groq-mixtral : mixtral-8x7b-32768
groq-llama : llama2-70b-4096
# OpenAI models
gpt4mini : gpt-4o-mini
gpt4o : gpt-4o
# Gemini models
gemini-pro : gemini-1.5-pro
gemini-flash : gemini-1.5-flash Sie entscheiden, welchem Modell und Anbieter Sie vertrauen, oder wählen sogar ein LLM vor Ort auf Ihrem Laptop aus. Sie haben die Kontrolle darüber, wie privat Ihre Daten und Vorlieben bleiben. Navamai unterstützt hochmoderne Modelle von Anthropic, Openai, Google und Meta. Sie können einen gehosteten Anbieter oder Ollama als lokaler Modellanbieter auf Ihrem Laptop auswählen. Wechseln Sie zwischen Modellen und Anbietern mit einem einfachen Befehl wie navamai config ask model llama um aus dem aktuellen Modell zu wechseln.
Sie können auch benutzerdefinierte Modellkonfigurationssätze laden, die jedem Befehl zugeordnet sind. Konfigurieren Sie diese in navamai.yml -Datei. Hier ist ein Beispiel dafür, wie sich die Befehle navamai ask und navamai intents mithilfe lokaler und gehosteter Modellanbieter anders verhalten.
ask :
provider : ollama
model : mistral
max-tokens : 300
save : false
system : Be crisp in your response. Only respond to the prompt
using valid markdown syntax. Do not explain your response.
temperature : 0.3
intents :
provider : claude
model : sonnet
max-tokens : 1000
save : true
folder : Embeds
system : Only respond to the prompt using valid markdown syntax.
When responding with markdown headings start at level 2.
Do not explain your response.
temperature : 0.0 NavamaI speichert eine Spur von Befehlen, Eingabeaufforderungen, Vorlagen, Suchordnern und gespeicherten Dateien in trail.yml -Datei. Sie können dies jederzeit mithilfe von navamai audit -Befehl visualisieren, um im Laufe der Zeit Einblicke in Ihre Navamai -Verwendung zu erhalten.
Ihre Absichten sind Aufgaben, die Sie ausführen möchten, Ziele, die Sie erfüllen möchten, Pläne, die Sie erkennen möchten, Entscheidungen, die Sie treffen möchten, oder Fragen, die Sie beantworten möchten. Sie kontrollieren Ihre gesamte Navamai -Erfahrung mit Ihren Absichten. Sie können Ihre Absichten als einfache Aufgaben in einer Textdatei speichern. Sie können sich an sie erinnern, wenn Sie es brauchen. Sie können Modelle nach Ihren Absichten ausführen, wenn Sie sich fit fühlen. Sie können Ergebnisse basierend auf Ihren Absichten speichern.
Sie können den von einem LLM generierten Inhalt mit Validierung von einem anderen Modell überprüfen. Stellen Sie sicher, dass Sie nur den Befehl validieren, den Befehl für refer intents ausführen zu können, um den ersten Einbettungsausweis zu generieren. Verwenden Sie navamai validate "Financial Analysis" oder eine von Ihnen erstellte Absichtsvorlage. Der Workflow für die Validierung ähnelt der Erweiterung der Absichten. Nur in diesem Fall entscheidet die Validate -Modellkonfiguration, welches Modell und welcher Anbieter verwendet werden soll. Sie können auch die Validierungsaufforderung ändern, um nach bestimmten Dingen zu überprüfen, die für Ihren Anwendungsfall relevant sind. Der Diff wird auf dem ursprünglichen und validierten Text berechnet, der bei der Diff -Vergleich unter Verwendung der Ähnlichkeitsbewertung alle Newlines, White -Space oder Markdown -Formatierung entfernen. Verwenden Sie dies, um die Qualitätsvalidierung generierter Inhalte zu automatisieren.