ProMtr est un outil CLI qui vous permet d'utiliser l'anglais simple pour instruire les modèles Openai LLM pour apporter des modifications à votre base de code. Des modifications sont appliquées directement aux fichiers que vous référez à partir de votre invite.
promptr [options] -p "your instructions" <file1> <file2> <file3> ...
J'ai trouvé que c'était un bon flux de travail:
-p : promptr -p my_prompt.txtPROMPTR appliquera directement le code du modèle à vos fichiers. Utilisez votre interface utilisateur GIT préférée pour inspecter les résultats.
Les relations publiques ci-dessous sont de bons exemples de ce qui peut être accompli en utilisant le PROMPTR. Vous pouvez trouver des liens vers les validations individuelles et les invites qui les ont créées dans les descriptions de PR.
PromPTR prend en charge les modèles à l'aide de LiquidJS, ce qui permet aux utilisateurs d'incorporer les commandes de modèles dans leurs fichiers invites. Cette fonctionnalité améliore la flexibilité et la réutilisabilité des invites, en particulier lorsque vous travaillez sur des projets plus importants avec des modèles ou des normes répétitifs.
Les projets peuvent avoir un ou plusieurs "incluse" - des extraits de code ou d'instructions réutilisables - qui peuvent être inclus à partir d'un fichier invite. Ceux-ci peuvent contenir des normes, des instructions ou des modèles de code spécifiques au projet, permettant aux utilisateurs de maintenir la cohérence dans leur base de code.
Par exemple, vous pouvez avoir un fichier inclué nommé _poject.liquid avec le contenu suivant:
This project uses Node version 18.
Use yarn for dependency management.
Use import not require in Javascript.
Don't include `module.exports` at the bottom of Javascript classes.
Alphabetize method names and variable declarations. Dans votre fichier d'invite, vous pouvez utiliser la fonction render à partir de LiquidJS pour inclure ce fichier Inclure dans un fichier d'invite avec lequel vous travaillez:
{% render '_project.liquid' %}
// your prompt hereCette approche permet le développement de fichiers d'inclusion réutilisables qui peuvent être partagés sur plusieurs projets ou dans différentes parties du même projet.
Normes de codage à l'échelle du projet : Créez un fichier Inclure avec des commentaires décrivant les normes de codage et incluez-les dans chaque nouveau fichier de code pour le projet.
Code de chauffe-plateau : Développez un ensemble d'extraits de code de chauffeur pour différentes parties de l'application (par exemple, définitions de modèle, points de terminaison de l'API) et les incluez selon les besoins.
Instructions partagées : Maintenez un ensemble d'instructions ou de directives pour des tâches spécifiques (par exemple, comment documenter les fonctions) et les inclure dans des fichiers invites pertinents.
En tirant parti de la fonction de modèles, les ingénieurs rapides peuvent réduire considérablement la redondance et assurer la cohérence de la création rapide, conduisant à des modifications plus efficaces et standardisées à la base de code.
| Option | Description |
|---|---|
-p, --prompt <prompt> | Spécifie l'invite à utiliser en mode non interactif. Un chemin ou une URL peut également être spécifié - dans ce cas, le contenu du chemin ou de l'URL spécifié est utilisé comme invite. L'invite peut tirer parti du système de modèles LiquidJS. |
-m, --model <model> | Indicateur facultatif pour définir le modèle, par défaut sur gpt-4o . L'utilisation de la valeur "GPT3" utilisera le modèle gpt-3.5-turbo . |
-d, --dry-run | Indicateur booléen en option qui peut être utilisé pour exécuter l'outil en mode run à sec où seule l'invite qui sera envoyée au modèle s'affiche. Aucune modification n'est apportée à votre système de fichiers lorsque cette option est utilisée. |
-i, --interactive | Indicateur booléen en option qui permet le mode interactif où l'utilisateur peut fournir une entrée de manière interactive. Si ce drapeau n'est pas défini, l'outil s'exécute en mode non interactif. |
| `-t, - template <templatename | modèle |
-x | Drapeau booléen en option. PROMPTR analyse la réponse du modèle et applique les opérations résultantes à votre système de fichiers lors de l'utilisation du modèle par défaut. Il vous suffit de passer l'indicateur -x si vous avez créé votre propre modèle, et vous voulez que Pranstr analyse et applique la sortie de la même manière que la sortie de modèle "Refactor" intégrée est analysée et appliquée à votre système de fichiers. |
-o, --output-path <outputPath> | Indicateur de chaîne facultatif qui spécifie le chemin d'accès au fichier de sortie. Si ce drapeau n'est pas défini, la sortie sera imprimée sur stdout. |
-v, --verbose | Indicateur booléen en option qui permet la sortie verbale, fournissant des informations plus détaillées pendant l'exécution. |
-dac, --disable-auto-context | Empêche les fichiers référencés dans l'invite d'être automatiquement inclus dans le contexte envoyé au modèle. |
--version | Afficher la version et sortir |
Les paramètres supplémentaires peuvent spécifier les chemins de chemins vers des fichiers qui seront inclus comme contexte dans l'invite. Les paramètres doivent être séparés par un espace.
yarn global add @ifnotnowwhen/promptr
npm install -g @ifnotnowwhen/promptr
Vous pouvez installer ProMPTR en copiant le binaire pour la version actuelle sur votre chemin. Seul MacOS est pris en charge dès maintenant.
Une variable d'environnement appelée OPENAI_API_KEY devrait contenir votre clé secrète API OpenAI.
npm run bundle
npm run build:<platform win|macos|linux>
npm run test-binary
ProMtr est libéré sous la licence MIT.