Nível de cursor de assistência de IA para texto sublime. Quero dizer.
Funciona com toda a API OpenAi'ish: LLAMA.CPP Server, Ollama ou qualquer hospedagem de terceiros LLM.

Vídeo acelerou para 1,7x
Vídeo acelerou para 1,7x
Package Control: Install Package .OpenAI e pressione Enter . O modo ChatGPT funciona da seguinte maneira:
OpenAI: Chat Model Select ou OpenAI: Chat Model Select With Tabs .OpenAI: Open in Tab .OpenAI: Refresh Chat .OpenAI: Reset Chat History para resgatar. Observação
Você sugeriu vincular pelo menos OpenAI: New Message , OpenAI: Chat Model Select e OpenAI: Show output panel em contato por conveniência, você pode fazer isso nas configurações do plug -in.
Você pode separar um histórico de bate -papo e configurações de assistente para um determinado projeto, anexando o seguinte snippet às suas configurações:
{
"settings" : {
"ai_assistant" : {
"cache_prefix" : " your_project_name "
}
}
}Você pode adicionar algumas coisas ao seu pedido:
Para executar o primeiro, basta selecionar algo dentro de uma visualização ativa e iniciar a solicitação dessa maneira sem mudar para outra guia, a seleção seria adicionada a uma solicitação como uma mensagem anterior (cada pedaço de seleção seria dividido por uma nova linha).
Para enviar o (s) arquivo (s) inteiro (s) com antecedência para solicitar, você deve super+button1 para fazer com que todas as guias deles se tornem visíveis em um único grupo de exibição e depois execute [New Message|Chat Model] with Sheets como mostrado na tela abaixo. Preste atenção que, em determinado exemplo, apenas README.md e 4.0.0.md serão enviados para um servidor, mas não um conteúdo do AI chat .

Observação
Também não importa se o arquivo persiste em um disco ou é apenas um buffer virtual com um texto, se eles forem selecionados, seu conteúdo será enviado de qualquer maneira.
O identificador de imagem pode ser chamado pelo comando OpenAI: Handle Image .
Ele espera que um caminho absoluto para a imagem seja selecionado em um buffer ou armazenado na área de transferência na chamada de comando (smth como /Users/username/Documents/Project/image.png ). Além disso, o comando pode ser passado pelo painel de entrada para prosseguir a imagem com tratamento especial. As imagens png e jpg são suportadas apenas.
Observação
Atualmente, o plug -in espera que o link ou a lista de links separados por uma nova linha a ser selecionada em buffer ou armazenados apenas em uma área de transferência.
Phantom é a interface do usuário de sobreposição colocada em linha na visualização do editor (veja a figura abaixo). Não afeta o conteúdo da visualização.
"prompt_mode": "phantom" para o assistente de IA em suas configurações.OpenAI: New Message ou OpenAI: Chat Model Select e pergunte o que você quiser no painel de entrada pop -up.ctrl+c para parar de solicitar o mesmo que no modo panel . 
Importante
No entanto, este é um modo independente, ou seja, um histórico de bate -papo existente não será enviado para um servidor em uma execução.
Observação
Um manual mais detalhado, incluindo vários exemplos de configuração de assistente, pode ser encontrado nas configurações do plug -in.
Aviso
Os seguintes comandos de buffer são depreciados e serão removidos na versão 5.0.
append , replace , insert . Eles são bastante auto-descritivos. Eles devem ser configurados em ambientes de assistente para entrar em vigor.OpenAI: New Message ."url" de um determinado modelo para apontar para qualquer host que você está em execução (por exemplo "http://localhost:8080" )."token" se o seu provedor precisar."chat_model" para um modelo de sua escolha e você está definido. Aviso
Devido a um problema conhecido, atualmente um valor de token de 10 ou mais caracteres é necessário, mesmo para servidores não garantidos. Mais detalhes aqui.
Observação
Você pode definir url e token global ou por instância do assistente, sendo capaz de alternar livremente entre a fonte fechada e os modelos de origem aberta em uma única sessão.
O plug -in de conclusão do OpenAI possui um arquivo de configurações, onde você pode definir sua chave de API do OpenAI. Isso é necessário para a maioria dos provedores funcionarem. Para definir sua chave da API, abra as configurações dentro Preferences -> Package Settings -> OpenAI -> Settings e cole sua chave da API na propriedade Token, como segue:
{
"token" : " sk-your-token " ,
}Aviso
Devido a um problema conhecido, atualmente um valor de token de 10 ou mais caracteres é necessário, mesmo para servidores não garantidos. Mais detalhes aqui.
Para desativar o anúncio, você deve adicionar "advertisement": false linha em uma configuração de assistente, onde deseja que ela seja desativada.
Você pode vincular as teclas para um determinado comando de plug -in em Preferences -> Package Settings -> OpenAI -> Key Bindings . Por exemplo, você pode vincular "nova mensagem", incluindo guias ativas como comando de contexto como este:
{
"keys" : [ "super+k" , "super+'" ] ,
"command" : "openai" , // or "openai_panel"
"args" : { "files_included" : true }
} ,Apenas funciona.
Importante
É altamente recomendável instalar o pacote MultimarkdownEditing para aplicar um conjunto mais amplo de idiomas com destaques de sintaxe.
Você pode configurá -lo substituindo a propriedade Proxy nas configurações OpenAI completion como seguir:
"proxy" : {
"address" : "127.0.0.1" , // required
"port" : 9898 , // required
"username" : "account" ,
"password" : "sOmEpAsSwOrD"
} Importante
Se algum de seus assistentes estiver configurado com um "token" de menos de 10 caracteres, eles sempre deixarão de estabelecer uma conexão, mesmo que o servidor não exija autenticação. Em vez disso, o plugin produzirá a seguinte mensagem de erro:
"Nenhum token da API fornecido, você deve definir o token OpenAI nas configurações para fazer as coisas funcionarem".
Felizmente, você encontrará uma solução rápida e fácil aqui até que uma correção possa ser lançada!
Aviso
Todo o código selecionado será enviado aos servidores do OpenAI (se não estiver usando o provedor de API personalizado) para processamento, portanto, verifique se você tem todas as permissões necessárias para fazê -lo.
Observação
Este foi escrito inicialmente a 80% por um GPT3.5 naquela época. Eu estava lá principalmente para fins de depuração, em vez de cavar a API ST. Esta é uma magia pura, eu juro!