PromPTR es una herramienta CLI que le permite usar el inglés simple para instruir a los modelos OperaI LLM para realizar cambios en su base de código. Los cambios se aplican directamente a los archivos a los que hace referencia a su mensaje.
promptr [options] -p "your instructions" <file1> <file2> <file3> ...
He encontrado que este es un buen flujo de trabajo:
-p : promptr -p my_prompt.txtPROMPTR aplicará el código del modelo directamente a sus archivos. Use su interfaz de usuario Git favorita para inspeccionar los resultados.
Los PR a continuación son buenos ejemplos de lo que se puede lograr usando PROMPTR. Puede encontrar enlaces a los confirmaciones individuales y las indicaciones que los crearon en las descripciones de relaciones públicas.
PROMPTR admite la plantilla con LiquidJS, que permite a los usuarios incorporar comandos de plantilla dentro de sus archivos de inmediato. Esta característica mejora la flexibilidad y la reutilización de las indicaciones, especialmente cuando se trabaja en proyectos más grandes con patrones o estándares repetitivos.
Los proyectos pueden tener uno o más "incluyen", fragmentos reutilizables de código o instrucciones, que se pueden incluir desde un archivo de inmediato. Estos incluyen pueden contener estándares, instrucciones o patrones de código específicos del proyecto, lo que permite a los usuarios mantener la consistencia en su base de código.
Por ejemplo, puede tener un archivo de inclusión llamado _poject.liquid con el siguiente contenido:
This project uses Node version 18.
Use yarn for dependency management.
Use import not require in Javascript.
Don't include `module.exports` at the bottom of Javascript classes.
Alphabetize method names and variable declarations. En su archivo de inmediato, puede usar la función render de LiquidJS para incluir este archivo de inclusión en un archivo de inmediato con el que está trabajando:
{% render '_project.liquid' %}
// your prompt hereEste enfoque permite el desarrollo de archivos reutilizables que se pueden compartir en múltiples proyectos o dentro de diferentes partes del mismo proyecto.
Estándares de codificación de todo el proyecto : cree un archivo de inclusión con comentarios que describan los estándares de codificación e incluya en cada nuevo archivo de código para el proyecto.
Código de Boilerplate : Desarrolle un conjunto de fragmentos de código Boilerplate para diferentes partes de la aplicación (p. Ej., Definiciones de modelo, puntos finales de API) e inclúyalos según sea necesario.
Instrucciones compartidas : mantenga un conjunto de instrucciones o pautas para tareas específicas (por ejemplo, cómo documentar las funciones) e incluirlas en archivos de inmediato relevantes.
Al aprovechar la función de plantilla, los ingenieros de inmediato pueden reducir significativamente la redundancia y garantizar la consistencia en la creación rápida, lo que lleva a modificaciones más eficientes y estandarizadas a la base de código.
| Opción | Descripción |
|---|---|
-p, --prompt <prompt> | Especifica la solicitud de usar en modo no interactivo. También se puede especificar una ruta o una URL: en este caso, el contenido en la ruta o URL especificada se usa como aviso. El aviso puede aprovechar el sistema de plantilla de LiquidJS. |
-m, --model <model> | Bandera opcional Para establecer el modelo, predeterminada a gpt-4o . El uso del valor "GPT3" usará el modelo gpt-3.5-turbo . |
-d, --dry-run | Bandera booleana opcional que se puede usar para ejecutar la herramienta en modo de manejo seco, donde solo se mostrará el mensaje que se enviará al modelo. No se realizan cambios en su sistema de archivos cuando se usa esta opción. |
-i, --interactive | Bandera booleana opcional que habilita el modo interactivo donde el usuario puede proporcionar una entrada de manera interactiva. Si este indicador no está configurado, la herramienta se ejecuta en modo no interactivo. |
| `-t, -template <TemplateName | templatepath |
-x | Bandera booleana opcional. PROMPTR analiza la respuesta del modelo y aplica las operaciones resultantes a su sistema de archivos cuando se usa la plantilla predeterminada. Solo necesita pasar el indicador -x si ha creado su propia plantilla, y desea que PROMPTR analice y aplique la salida de la misma manera que la salida de plantilla "Refactor" incorporada se analiza y aplica a su sistema de archivos. |
-o, --output-path <outputPath> | Bandera de cadena opcional que especifica la ruta al archivo de salida. Si este indicador no está configurado, la salida se imprimirá en Stdout. |
-v, --verbose | Bandera booleana opcional que permite la salida detallada, proporcionando información más detallada durante la ejecución. |
-dac, --disable-auto-context | Evita que los archivos referenciados en la solicitud se incluyan automáticamente en el contexto enviado al modelo. |
--version | Mostrar la versión y salir |
Los parámetros adicionales pueden especificar las rutas a los archivos que se incluirán como contexto en el mensaje. Los parámetros deben estar separados por un espacio.
yarn global add @ifnotnowwhen/promptr
npm install -g @ifnotnowwhen/promptr
Puede instalar PROMPTR copiando el binario para la versión actual en su ruta. Solo MacOS es compatible en este momento.
Se espera que una variable de entorno llamada OPENAI_API_KEY contenga su clave secreta API OpenAI.
npm run bundle
npm run build:<platform win|macos|linux>
npm run test-binary
PROMPTR se publica bajo la licencia MIT.