L'ingénierie rapide est une discipline relativement nouvelle conçue pour développer et optimiser les invites pour utiliser efficacement les modèles de langage (LMS) pour une variété d'applications et de sujets de recherche. Conseils Les compétences en ingénierie aident à mieux comprendre les fonctions et les limites des modèles de grande langue (LLM).
L'ingénierie rapide peut être utilisée pour améliorer les capacités des LLMS sur une variété de tâches communes et complexes telles que la question et la réponse et le raisonnement arithmétique, la conception robuste et des techniques d'incitation efficaces qui interfacent avec les LLM et d'autres outils.
Poussée par l'intérêt élevé pour le développement de LLM, cette collection de matériaux de guide d'ingénierie de Tip a été créée, qui contient tous les derniers articles, guides d'étude, conférences, références et outils liés à l'ingénierie des conseils. (Je mettrai à jour tous les trois jours pour le moment)
La plupart du contenu se traduit actuellement de Dair-ai (https://github.com/dair-ai/prompt-ingineering-guide)
Les cahiers et les diaporamas lairs sont inclus.
DAIRS DE DAIR-AI et Twitter de Dair-AI
Plate-forme (recommandée)
Ce qui suit est un guide d'ingénierie pour le développement de Dair-AI. Le guide Dair-AI est en cours de développement. (Je mettrai à jour tous les trois jours pour le moment)
Voici les derniers articles sur l'ingénierie rapide (triée par date de sortie). Nous mettons à jour ces articles tous les jours et ajoutons de nouveaux articles. Nous ajoutons des résumés de ces articles au guide ci-dessus chaque semaine:
Enquêtes / aperçus:
Techniques / méthodes Approches / techniques:
Modèle de langue évolutive Génération des conseils d'apprentissage semi-supervisé (février 2023)
Définissez la portée des capacités des modèles de grands langues dans la génération de texte ouverte par des contraintes rapides (février 2023)
À la Carte Taping rapide (APT): combinant différentes données via des conseils composables (février 2023)
Graphprompt: Unification de la pré-formation pour les réseaux de neurones graphiques et les tâches en aval (février 2023)
La capacité des grands modèles de langue en auto-réévaluation morale (février 2023)
SwitchPrompt: Conseils souples pour la zone fermée spécifique à l'apprentissage classifié dans les domaines de ressources faibles (février 2023)
Évaluez la robustesse des indices discrets (février 2023)
Exemples combinés d'apprentissage contextuel (février 2023)
Les conseils durs deviennent faciles: optimisation discrète basée sur le gradient pour l'ajustement et la découverte des conseils (février 2023)
Raisonnement de réflexion multimodale dans le modèle de langue (février 2023)
Les grands modèles de langue sont facilement distraits par des contextes non liés (février 2023)
Conseils de synthèse: générer des démonstrations de réflexion pour les modèles de grands langues (février 2023)
Conseils progressifs: apprentissage continu des modèles de langue (janvier 2023)
Conseils de traitement par lots: raisonnement efficace de l'API LLM (janvier 2023)
Pensez à nouveau, ne réfléchissons pas étape par étape! Préjugés et toxicité dans le raisonnement de point zéro (décembre 2022)
IA constitutionnelle: insigne de la rétroaction de l'IA (décembre 2022)
Conseils continus: résoudre des problèmes complexes (décembre 2022)
Découvrez le comportement du modèle linguistique par évaluation écrite par modèle (décembre 2022)
Conseils structurels: étendre l'apprentissage du contexte à 1 000 exemples (décembre 2022)
PAL: Modèle linguistique assisté par le programme (novembre 2022)
Les grands modèles de langue sont des ingénieurs rapides au niveau humain (novembre 2022)
Ignorez la pointe précédente: la technologie d'attaque du modèle de langue (nov 2022)
Texte généré par la machine: une étude complète des modèles de menaces et des méthodes de détection (novembre 2022)
Enseignement du raisonnement algorithmique à travers l'apprentissage du contexte (novembre 2022)
Améliorer l'auto-cohérence et les performances des modèles de langue pré-formés par l'inférence du langage naturel (novembre 2022)
Demandez avec désinvolture: des stratégies simples pour promploir des modèles de langage (octobre 2022)
React: raisonnement et action coordonnés dans les modèles de langues (octobre 2022)
Tip GPT-3 est fiable (octobre 2022)
Conseils de décomposition: méthodes modulaires pour résoudre des tâches complexes (octobre 2022)
Les modèles linguistiques sont des raisonneurs gourmands: analyse de forme systématique des liens de pensée (octobre 2022)
Évaluation de la sensibilité des modèles de langage pré-formés à travers des exemples contradictoires conçus à la main (septembre 2022)
Insidegator: Obtenez une petite quantité de recherches intensives à partir de 8 exemples (septembre 2022)
Les raisonneurs qui conduisent les modèles linguistiques pour devenir meilleurs (juin 2022)
Le modèle de grande langue est le raisonnement à point zéro (mai 2022)
Système MRKL: une architecture de symboles neuronaux modulaire combinant de grands modèles de langue, des sources de connaissances externes et un raisonnement discret (mai 2022)
Détection de toxicité en générant des invites (mai 2022)
Conseils de transfert d'apprentissage pour la génération de texte (mai 2022)
Insuabilité des instructions de raisonnement textuel avec un petit nombre d'indices (mai 2022)
Conseils Classification du modificateur pour la génération de texte à l'image (avril 2022)
PromptChainer: lier les conseils du modèle de langage à grande langue via la programmation visuelle (mars 2022)
Raisonnement des liens idéologiques pour améliorer les modèles de langue avec l'auto-cohérence (mars 2022)
Former le modèle de langue en utilisant les commentaires humains pour exécuter des instructions
Réexaminez le rôle de la démonstration: qu'est-ce qui fait que le contexte apprend le succès? (Février 2022)
Les conseils de liaison d'idées augmentent l'inférence pour les modèles de grands langues (janvier 2022)
Présentez votre travail: un registre temporaire pour l'informatique intermédiaire avec modèle de langue (novembre 2021)
Raisonnement de bon sens basé sur la génération de conseils de connaissances (octobre 2021)
La formation rapide à plusieurs tâches peut réaliser la généralisation des tâches de tir zéro (octobre 2021)
Les instructions de refactorisation invitent à s'adapter à la langue de GPTK (septembre 2021)
Directives de conception pour les modèles de génération de texte à l'image (sept. 2021)
Faites des modèles de langue pré-entraînés un meilleur apprenant sans échantillon (août 2021)
Invites magiques et ordonnées et leur emplacement: surmonter un petit nombre de sensibilité à la séquence rapide (avril 2021)
Bertese: Apprenez à parler à Bert (avril 2021)
La puissance de l'ajustement de l'échelle avec des paramètres valides (avril 2021)
Conseils Programmation pour les grands modèles de langage: aller au-delà d'un petit nombre de paradigmes de conseils (février 2021)
Calibration pré-utilisation: améliorer les performances de petit échantillon des modèles de langues (février 2021)
Ajustement du préfixe: optimiser les invites continues pour la génération (janvier 2021)
AutoPrompt: Connaissances rapides des modèles de langue à des invites générées automatiquement (octobre 2020)
Les modèles de langue sont de petits apprenants (mai 2020)
Comment savons-nous ce que les modèles de langue savent? (Juillet 2020)
Applications:
Collections:
Si vous pensez que quelque chose manque, veuillez soumettre un PR. Les commentaires et les suggestions sont également les bienvenus.