Cursorniveau der KI -Unterstützung für erhabenen Text. Ich meine es.
Arbeitet mit allen OpenAi'ish -API: lama.cpp Server, Ollama oder was auch immer LLM Hosting von Drittanbietern.

Video bis zu 1,7x beschleunigt
Video bis zu 1,7x beschleunigt
Package Control: Install Package .OpenAI ein und drücken Sie Enter . Der Chatgpt -Modus funktioniert auf die folgende Weise:
OpenAI: Chat Model Select oder OpenAI: Chat Model Select With Tabs Registerkartenbefehlen aus.OpenAI: Open in Tab .OpenAI: Refresh Chat .OpenAI: Reset Chat History um zu retten. Notiz
Sie haben vorgeschlagen, mindestens OpenAI: New Message , OpenAI: Chat Model Select and OpenAI: Show output panel in Sake Sake, können Sie dies in Plugin -Einstellungen tun.
Sie können einen Chat -Historie- und Assistenteneinstellungen für ein bestimmtes Projekt trennen, indem Sie das folgende Ausschnitt an seine Einstellungen anhängen:
{
"settings" : {
"ai_assistant" : {
"cache_prefix" : " your_project_name "
}
}
}Sie können Ihrer Anfrage ein paar Dinge hinzufügen:
Um den ersteren auszuführen, wählen Sie einfach etwas in einer aktiven Ansicht aus und initiieren Sie die Anforderung auf diese Weise, ohne auf eine andere Registerkarte zu wechseln, eine Auswahl würde einer Anforderung als vorhergehende Nachricht hinzugefügt (jeder Auswahlblock würde durch eine neue Zeile geteilt).
Um die gesamten Datei (en) im Voraus an Anfrage zu senden, sollten Sie super+button1 darauf erhalten, damit alle Registerkarten von ihnen in einer einzelnen Ansichtsgruppe sichtbar werden, und dann [New Message|Chat Model] with Sheets ausführen, wie auf dem Bildschirm unten gezeigt. Achten Sie darauf, dass in einem gegebenen Beispiel nur README.md und 4.0.0.md an einen Server gesendet werden, jedoch nicht an einen Inhalt des AI chat .

Notiz
Es ist auch egal, ob die Datei auf einer CD besteht oder es ist nur ein virtueller Puffer mit einem Text, wenn sie ausgewählt sind, wird ihr Inhalt in beide Richtungen gesendet.
Bildhandle kann von OpenAI: Handle Image aufgerufen werden.
Es wird erwartet, dass ein absoluter Pfad zum Bild in einem Puffer ausgewählt oder in dem Befehlsaufruf in Zwischenablage gespeichert wird (SMTH wie /Users/username/Documents/Project/image.png ). Zusätzlich kann der Befehl vom Eingabebereich übergeben werden, um das Bild mit einer besonderen Behandlung fortzusetzen. png und jpg -Bilder werden nur unterstützt.
Notiz
Derzeit erwartet Plugin, dass der Link oder die Liste der Links, die durch eine neue Zeile getrennt sind, nur in Puffer ausgewählt oder nur in Zwischenablage gespeichert werden.
Phantom ist die Overlay -Benutzeroberfläche in der Editoransicht (siehe Bild unten). Es wirkt sich nicht auf den Inhalt der Ansicht aus.
"prompt_mode": "phantom" für KI -Assistenten in seinen Einstellungen festlegen.OpenAI: New Message oder OpenAI: Chat Model Select und fragen Sie, was Sie im Popup -Eingabebereich haben möchten.ctrl+c drücken, um zu stoppen, wie sie im panel -Modus auffordern. 
Wichtig
Dies ist jedoch ein eigenständiger Modus, dh ein vorhandener Chat -Historie wird bei einem Lauf nicht an einen Server gesendet.
Notiz
In den Plugin -Einstellungen finden Sie ein detaillierteres Handbuch, einschließlich verschiedener Assistant -Konfigurationsbeispiele.
Warnung
Das Folgende in Pufferbefehls sind veraltet und werden in 5.0 veröffentlicht.
append , replace , insert . Sie sind ziemlich selbst beschreibend. Sie sollten in Assistenteneinstellungen eingerichtet werden, um wirksam zu werden.OpenAI: New Message ."url" -Aufeinstellung eines bestimmten Modells, um auf den Host zu zeigen, auf dem Sie Server ausgeführt haben (z. B. "http://localhost:8080" )."token" an, wenn Ihr Anbieter einen benötigt hat."chat_model" an ein Modell Ihrer Wahl und Sie sind festgelegt. Warnung
Aufgrund eines bekannten Problems ist derzeit auch für ungesicherte Server ein Token -Wert von 10 oder mehr Zeichen erforderlich. Weitere Details hier.
Notiz
Sie können sowohl url als auch token entweder global oder auf der Basis pro Assistent festlegen, wodurch es in der Lage ist, in einer einzigen Sitzung zwischen geschlossenen Quellen und offenen Modellen frei zu wechseln.
Das OpenAI Completion -Plugin verfügt über eine Einstellungsdatei, in der Sie Ihre OpenAI -API -Schlüssel einstellen können. Dies ist erforderlich, damit die meisten Anbieter arbeiten. Um Ihre API -Taste festzulegen, öffnen Sie die Einstellungen in Preferences -> Package Settings -> OpenAI -> Settings und fügen Sie Ihre API -Taste wie folgt in die Token -Eigenschaft ein:
{
"token" : " sk-your-token " ,
}Warnung
Aufgrund eines bekannten Problems ist derzeit auch für ungesicherte Server ein Token -Wert von 10 oder mehr Zeichen erforderlich. Weitere Details hier.
Um Werbung zu deaktivieren, müssen Sie "advertisement": false Zeile in eine Assistenteneinstellung, in der Sie sich wünschen, dass sie deaktiviert werden.
Sie können Tasten für einen bestimmten Plugin -Befehl in Preferences -> Package Settings -> OpenAI -> Key Bindings binden. Sie können beispielsweise "neue Nachricht" einschließlich aktiver Registerkarten als Kontextbefehl wie folgt binden:
{
"keys" : [ "super+k" , "super+'" ] ,
"command" : "openai" , // or "openai_panel"
"args" : { "files_included" : true }
} ,Es funktioniert einfach.
Wichtig
Es wird dringend empfohlen, das MultimarkdownEditing -Paket zu installieren, um einen breiteren Sprachensatz mit Syntax -Hervorhebung anzuwenden.
Sie können es einrichten, indem Sie die Proxy -Eigenschaft in den OpenAI completion wie folgt überschreiben:
"proxy" : {
"address" : "127.0.0.1" , // required
"port" : 9898 , // required
"username" : "account" ,
"password" : "sOmEpAsSwOrD"
} Wichtig
Wenn einer Ihrer Assistenten mit einem "token" von weniger als 10 Zeichen konfiguriert ist, werden sie immer keine Verbindung herstellen, auch wenn der Server überhaupt keine Authentifizierung benötigt. Stattdessen erzeugt das Plugin die folgende Fehlermeldung:
"Kein API -Token zur Verfügung gestellt, müssen Sie das OpenAI -Token in die Einstellungen einstellen, damit die Dinge funktionieren."
Zum Glück finden Sie hier eine schnelle und einfache Problemumgehung, bis ein Fix veröffentlicht werden kann!
Warnung
Alle ausgewählten Code werden an die OpenAI -Server gesendet (falls dies nicht für den benutzerdefinierten API -Anbieter verwendet wird) zur Bearbeitung. Stellen Sie daher sicher, dass Sie alle erforderlichen Berechtigungen dazu haben.
Notiz
Dieser wurde damals zunächst bei 80% von einem GPT 3,5 geschrieben. Ich war hauptsächlich zum Debugging -Zweck dort, anstatt mich in die ST -API einzugraben. Das ist eine reine Magie, ich schwöre!