Niveau du curseur de l'aide de l'IA pour le texte sublime. Je suis sérieux.
Fonctionne avec All Openai'ish API: LLAMA.CPP Server, Olllama ou n'importe quel hébergeur tiers LLM.

La vidéo a accéléré jusqu'à 1,7x
La vidéo a accéléré jusqu'à 1,7x
Package Control: Install Package .OpenAI et appuyez sur Enter . Le mode chatppt fonctionne à la manière suivante:
OpenAI: Chat Model Select ou OpenAI: Chat Model Select With Tabs .OpenAI: Open in Tab .OpenAI: Refresh Chat .OpenAI: Reset Chat History pour sauver. Note
Vous avez suggéré de lier au moins OpenAI: New Message , OpenAI: Chat Model Select et OpenAI: Show output panel dans le saké pour plus de commodité, vous pouvez le faire dans les paramètres du plugin.
Vous pouvez séparer une histoire de chat et des paramètres d'assistant pour un projet donné en ajoutant l'extrait suivant à ses paramètres:
{
"settings" : {
"ai_assistant" : {
"cache_prefix" : " your_project_name "
}
}
}Vous pouvez ajouter quelques éléments à votre demande:
Pour effectuer le premier, sélectionnez quelque chose dans une vue active et initier la demande de cette façon sans passer à un autre onglet, la sélection serait ajoutée à une demande en tant que message précédent (chaque morceau de sélection serait divisé par une nouvelle ligne).
Pour envoyer les fichiers entiers à l'avance pour demander, vous devez super+button1 sur eux pour en faire tous les onglets pour devenir visibles dans un groupe de vue unique , puis exécuter [New Message|Chat Model] with Sheets comme indiqué sur l'écran ci-dessous. Faites attention que, dans l'exemple donné, seul README.md et 4.0.0.md seront envoyés à un serveur, mais pas un contenu du AI chat .

Note
Peu importe que le fichier persiste sur un disque ou que ce soit juste un tampon virtuel avec un texte dedans, s'ils sont sélectionnés, leur contenu sera envoyé dans les deux sens.
La poignée de l'image peut être appelée par OpenAI: Handle Image .
Il s'attend à ce qu'un chemin absolu vers l'image soit sélectionné dans un tampon ou stocké dans le presse-papiers sur l'appel de commande (smth like /Users/username/Documents/Project/image.png ). En outre, la commande peut être transmise par panneau d'entrée pour procéder à l'image avec un traitement spécial. Les images png et jpg ne sont prises en charge que.
Note
Le plugin actuellement s'attend à ce que le lien ou la liste des liens séparés par une nouvelle ligne soit sélectionné dans du tampon ou stocké uniquement dans le presse-papiers.
Phantom est l'interface utilisateur de superposition placée dans la vue de l'éditeur (voir l'image ci-dessous). Cela n'affecte pas le contenu de la vue.
"prompt_mode": "phantom" pour l'assistant AI dans ses paramètres.OpenAI: New Message ou OpenAI: Chat Model Select et demandez ce que vous souhaitez dans le volet d'entrée contextuel.ctrl+c pour arrêter l'incitation de la même chose qu'avec en mode panel . 
Important
Pourtant, il s'agit d'un mode autonome, c'est-à-dire qu'un historique de chat existant ne sera pas envoyé à un serveur lors d'une course.
Note
Un manuel plus détaillé, y compris divers exemples de configuration d'assistant, peut être trouvé dans les paramètres du plugin.
Avertissement
Les commandes suivantes dans les commandes de tampon sont obsolètes et seront supprimées dans la version 5.0.
append , replace , insert . Ils sont assez auto-descriptifs. Ils devraient être configurés dans des paramètres d'assistance pour prendre effet.OpenAI: New Message ."url" d'un modèle donné pour pointer à n'importe quel hôte sur lequel vous utilisez (par exemple "http://localhost:8080" )."token" si votre fournisseur en avait besoin."chat_model" à un modèle de votre choix et vous êtes prêt. Avertissement
En raison d'un problème connu, une valeur de jeton de 10 caractères ou plus est actuellement requise même pour les serveurs non garantis. Plus de détails ici.
Note
Vous pouvez définir à la fois url et token globaux ou sur une base d'instance d'assistant, étant ainsi capable de basculer librement entre les modèles à source fermée et à ouverture en une seule session.
Le plugin d'achèvement OpenAI a un fichier de paramètres où vous pouvez définir votre touche API OpenAI. Ceci est nécessaire pour que la plupart des fournisseurs fonctionnent. Pour définir votre touche API, ouvrez les paramètres dans Preferences -> Package Settings -> OpenAI -> Settings et collez votre clé API dans la propriété de jeton, comme suit:
{
"token" : " sk-your-token " ,
}Avertissement
En raison d'un problème connu, une valeur de jeton de 10 caractères ou plus est actuellement requise même pour les serveurs non garantis. Plus de détails ici.
Pour désactiver la publicité, vous devez ajouter "advertisement": false Line dans un paramètre assistant où vous souhaitez qu'il soit désactivé.
Vous pouvez lier les touches pour une commande de plugin donnée dans Preferences -> Package Settings -> OpenAI -> Key Bindings . Par exemple, vous pouvez lier le "nouveau message", y compris les onglets actifs comme commande de contexte comme celle-ci:
{
"keys" : [ "super+k" , "super+'" ] ,
"command" : "openai" , // or "openai_panel"
"args" : { "files_included" : true }
} ,Ça marche juste.
Important
Il est fortement recommandé d'installer le package MultimarkdownEditing pour appliquer un ensemble de langues plus large avec une mise en évidence de syntaxe.
Vous pouvez le configurer en remplaçant la propriété proxy dans les paramètres OpenAI completion comme Suivre:
"proxy" : {
"address" : "127.0.0.1" , // required
"port" : 9898 , // required
"username" : "account" ,
"password" : "sOmEpAsSwOrD"
} Important
Si l'un de vos assistants est configuré avec un "token" de moins de 10 caractères, ils ne parviendront toujours pas à établir une connexion, même si le serveur ne nécessite pas du tout d'authentification. Au lieu de cela, le plugin produira le message d'erreur suivant:
"Aucun jeton API fourni, vous devez définir le jeton Openai dans les paramètres pour faire fonctionner les choses."
Heureusement, vous trouverez ici une solution de contournement rapide et facile jusqu'à ce qu'un correctif puisse être publié!
Avertissement
Tous les code sélectionnés seront envoyés aux serveurs OpenAI (s'ils n'utilisent pas le fournisseur d'API personnalisé) pour le traitement, alors assurez-vous que vous avez toutes les autorisations nécessaires pour ce faire.
Note
Celui-ci a été initialement écrit à 80% par un GPT3,5 à l'époque. J'étais principalement là à des fins de débogage, plutôt que de creuser dans la ST API. C'est une pure magie, je le jure!