O Promptr é uma ferramenta da CLI que permite usar o inglês simples para instruir os modelos OpenAI LLM para fazer alterações na sua base de código. As alterações são aplicadas diretamente aos arquivos que você faz referência do seu prompt.
promptr [options] -p "your instructions" <file1> <file2> <file3> ...
Eu achei que este é um bom fluxo de trabalho:
-p : promptr -p my_prompt.txtO PROMPTR aplicará o código do modelo diretamente aos seus arquivos. Use sua interface do usuário Git favorita para inspecionar os resultados.
Os PR abaixo são bons exemplos do que pode ser realizado usando o Promptr. Você pode encontrar links para os compromissos individuais e os avisos que os criaram nas descrições de relações públicas.
O PROMPTR suporta modelos usando o LiquidJS, que permite que os usuários incorporem comandos de modelos em seus arquivos prompts. Esse recurso aprimora a flexibilidade e a reutilização das instruções, especialmente ao trabalhar em projetos maiores com padrões ou padrões repetitivos.
Os projetos podem ter um ou mais "inclui" - trechos reutilizáveis de código ou instruções - que podem ser incluídos em um arquivo rápido. Isso inclui pode conter padrões, instruções ou padrões de código específicos do projeto, permitindo que os usuários mantenham a consistência em sua base de código.
Por exemplo, você pode ter um arquivo de inclusão chamado _poject.liquid com o seguinte conteúdo:
This project uses Node version 18.
Use yarn for dependency management.
Use import not require in Javascript.
Don't include `module.exports` at the bottom of Javascript classes.
Alphabetize method names and variable declarations. No seu arquivo prompt, você pode usar a função render do LiquidJS para incluir esse arquivo em um arquivo rápido com o qual você está trabalhando:
{% render '_project.liquid' %}
// your prompt hereEssa abordagem permite o desenvolvimento de arquivos reutilizáveis que podem ser compartilhados em vários projetos ou em diferentes partes do mesmo projeto.
Padrões de codificação em todo o projeto : Crie um arquivo incluído com comentários descrevendo os padrões de codificação e inclua-o em todos os novos arquivos de código para o projeto.
Código do Boilerplate : Desenvolva um conjunto de trechos de código de caldeira para diferentes partes do aplicativo (por exemplo, definições de modelo, terminais da API) e inclua -os conforme necessário.
Instruções compartilhadas : mantenha um conjunto de instruções ou diretrizes para tarefas específicas (por exemplo, como documentar as funções) e incluí -las em arquivos de prompt relevantes.
Ao alavancar o recurso de modelagem, os engenheiros promissores podem reduzir significativamente a redundância e garantir a consistência na criação imediata, levando a modificações mais eficientes e padronizadas na base de código.
| Opção | Descrição |
|---|---|
-p, --prompt <prompt> | Especifica o prompt para usar no modo não interativo. Um caminho ou URL também pode ser especificado - neste caso, o conteúdo no caminho especificado ou URL é usado como prompt. O prompt pode aproveitar o sistema de modelos LiquidJS. |
-m, --model <model> | Sinalizador opcional para definir o modelo, padrão para gpt-4o . O uso do valor "GPT3" usará o modelo gpt-3.5-turbo . |
-d, --dry-run | Sinalizador booleano opcional que pode ser usado para executar a ferramenta no modo de punção a seco, onde apenas o prompt que será enviado ao modelo é exibido. Nenhuma alteração é feita no seu sistema de arquivos quando essa opção é usada. |
-i, --interactive | Sinalizador booleano opcional que permite o modo interativo em que o usuário pode fornecer entrada interativamente. Se esse sinalizador não estiver definido, a ferramenta será executada no modo não interativo. |
| `-t,--template <templatename | templatepath |
-x | Bandeira booleana opcional. O Promptr analisa a resposta do modelo e aplica as operações resultantes ao seu sistema de arquivos ao usar o modelo padrão. Você só precisa passar o sinalizador -x se criou seu próprio modelo e deseja analisar o PROMPTR e aplicar a saída da mesma maneira que a saída de modelo "Refactor" incorporada é analisada e aplicada ao seu sistema de arquivos. |
-o, --output-path <outputPath> | Sinalizador opcional da string que especifica o caminho para o arquivo de saída. Se esse sinalizador não estiver definido, a saída será impressa no stdout. |
-v, --verbose | Sinalizador booleano opcional que permite a saída detalhada, fornecendo informações mais detalhadas durante a execução. |
-dac, --disable-auto-context | Impede que os arquivos referenciados no prompt sejam automaticamente incluídos no contexto enviado ao modelo. |
--version | Exibir a versão e sair |
Parâmetros adicionais podem especificar os caminhos para arquivos que serão incluídos como contexto no prompt. Os parâmetros devem ser separados por um espaço.
yarn global add @ifnotnowwhen/promptr
npm install -g @ifnotnowwhen/promptr
Você pode instalar o PROMPTR copiando o binário para a liberação atual no seu caminho. Apenas o MacOS é suportado agora.
Uma variável de ambiente chamada OPENAI_API_KEY deve conter sua chave secreta da API OpenAI.
npm run bundle
npm run build:<platform win|macos|linux>
npm run test-binary
O Promptr é liberado sob a licença do MIT.