Proform Engineering ist eine relativ neue Disziplin, mit der Aufforderungen entwickelt und optimiert werden sollen, um Sprachmodelle (LMS) für eine Vielzahl von Anwendungen und Forschungsthemen effektiv zu verwenden. TIPS Engineering -Fähigkeiten tragen dazu bei, die Funktionen und Einschränkungen von Großsprachmodellen (LLMs) besser zu verstehen.
Schnelltechnik kann verwendet werden, um die Funktionen von LLMs zu einer Vielzahl von gängigen und komplexen Aufgaben wie Frage und Antwort und arithmetischem Denken zu verbessern, robuste und effektive Aufforderungstechniken zu entwerfen, die sich mit LLMs und anderen Tools anschließen.
Angetrieben von dem hohen Interesse an der Entwicklung von LLM wurde diese Sammlung von Materials "Tipp Engineering Guide" erstellt, das alle neuesten Artikel, Studienführer, Vorträge, Referenzen und Tools zum Tipptechnik enthält. (Ich werde vorerst alle drei Tage aktualisieren)
Der größte Teil der Inhalte steht derzeit von Daair-ai (https://github.com/dair-ai/prompt-engineering-guide) übersetzt
Dair-AI-Notizbücher und Diashows sind enthalten.
Die Zwietracht von Dair-AI und das Twitter von Dair-Ai
Plattform (empfohlen)
Das Folgende ist ein Tipp-Engineering-Leitfaden für die Dair-AI-Entwicklung. Der Dair-AI-Leitfaden befindet sich in der Entwicklung. (Ich werde vorerst alle drei Tage aktualisieren)
Hier sind die neuesten Artikel zum schnellen Engineering (sortiert nach Veröffentlichungsdatum). Wir aktualisieren diese Papiere jeden Tag und fügen neue Papiere hinzu. Wir fügen jede Woche Abstracts dieser Papiere zum oben genannten Leitfaden hinzu:
Umfragen/Übersichten:
Techniken/Methodenansätze/Techniken:
Skalierbares Sprachmodell Semi-überprüftes Lerntippsgenerierung (Februar 2023)
Definieren Sie den Umfang der Fähigkeiten großer Sprachmodelle in der offenen Textgenerierung durch sofortige Einschränkungen (Februar 2023).
À-la-carte prompt Tuning (APT): Kombinieren verschiedener Daten durch komponierbare Tipps (Februar 2023)
GraphPrompt: Vereinigung der Vorausbildung für grafische neuronale Netzwerke und nachgeschaltete Aufgaben (Februar 2023)
Die Fähigkeit von Großsprachmodellen in der moralischen Selbstremedie (Februar 2023)
SwitchPrompt: Soft Tipps für die für das klassifizierte Lernen in niedrigen Ressourcendomänen spezifischen Bereichsflächen (Februar 2023)
Bewerten Sie die Robustheit diskreter Hinweise (Februar 2023)
Kombinationsbeispiele für das Kontextlernen (Februar 2023)
Harte Tipps werden einfach: Diskrete Gradienten-basierte Optimierung für die Anpassung und Entdeckung von Tipps (Februar 2023)
Multimodales Ketten Denken im Sprachmodell (Februar 2023)
Großsprachenmodelle werden leicht durch nicht verwandte Kontexte abgelenkt (Februar 2023)
Synthese -Tipps: Erzeugen Sie Denkdemonstrationen für Großsprachenmodelle (Februar 2023)
Progressive Tipps: kontinuierliches Lernen von Sprachmodellen (Jan 2023)
Tipps zur Batch -Verarbeitung: Effizientes Denken der LLM -API (Januar 2023)
Denken Sie noch einmal darüber nach, lassen Sie uns nicht Schritt für Schritt nachdenken! Vorurteile und Toxizität im Nullpunkt-Denken (Dezember 2022)
Konstitutionelle KI: Harmlosigkeit durch KI -Feedback (Dezember 2022)
Kontinuierliche Tipps: Komplexe Probleme lösen (Dez. 2022)
Entdecken Sie das Sprachmodellverhalten durch Bewertung, die vom Modell verfasst wurde (Dez. 2022)
Strukturelle Tipps: Erweitern Sie das Lernen von Kontext auf 1.000 Beispiele (Dez. 2022)
PAL: Programmgestütztes Sprachmodell (Nov. 2022)
Große Sprachmodelle sind PROPUT-Ingenieure auf menschlicher Ebene (Nov. 2022)
Ignorieren Sie den vorherigen Tipp: Sprachmodellangriffstechnologie (Nov. 2022)
Maschinengenerierter Text: Eine umfassende Untersuchung von Bedrohungsmodellen und Erkennungsmethoden (Nov. 2022)
Lehren algorithmisches Denken durch Kontextlernen (Nov. 2022)
Verbessern Sie die Selbstkonsistenz und Leistung von vorgeborenen Sprachmodellen durch Inferenz für natürliche Sprache (Nov. 2022)
Fragen Sie beiläufig: einfache Strategien, um Sprachmodelle zu fordern (Okt 2022)
React: Koordiniertes Denken und Handeln in Sprachmodellen (Okt 2022)
TIP GPT-3 ist zuverlässig (Okt. 2022)
Zersetzungstipps: Modulare Methoden zur Lösung komplexer Aufgaben (Okt. 2022)
Sprachmodelle sind gierige Vernunft: systematische Formanalyse von Gedankenverbindungen (Okt 2022)
Bewertung der Anfälligkeit von vorgeborenen Sprachmodellen anhand von handgestalteten kontroversen Beispielen (September 2022)
Eingabeaufforderung: Erhalten Sie eine kleine Menge intensiver Suchanfragen von 8 Beispielen (September 2022).
Vernunft, die Sprachmodelle verbessern (Juni 2022)
Großsprachmodell ist der Nullpunkt-Vernunft (Mai 2022)
MRKL -System: Eine modulare Symbolarchitektur mit großer Sprache, externe Wissensquellen und diskretes Denken (Mai 2022)
Toxizitätserkennung durch Erzeugung von Eingaben (Mai 2022)
Tipps zur Übertragung von Transfer für die Textgenerierung (Mai 2022)
Unzuverlässige Anweisungen zur Textbeschrift mit einer geringen Anzahl von Hinweisen (Mai 2022)
TIPS-Modifikator-Klassifizierung für die Erzeugung von Text zu Image (April 2022)
PromptChainer: Verknüpfung von großsprachigen Modelltipps durch visuelle Programmierung (März 2022)
Ideologische Verbindung zur Verbesserung der Sprachmodelle mit Selbstkonsistenz (März 2022)
Trainieren Sie das Sprachmodell mithilfe menschlicher Feedback, um Anweisungen auszuführen
Überprüfen Sie die Rolle der Demonstration erneut: Was macht das Lernen des Kontextes erfolgreich? (Februar 2022)
IDEA Link -Tipps erhöhen die Inferenz für große Sprachmodelle (Januar 2022)
Präsentieren Sie Ihre Arbeit: Ein temporäres Register für Intermediate Computing mit Sprachmodell (November 2021)
Argumentation des gesunden Menschenverstandes auf der Grundlage der Erzeugung von Wissensnoten (Oktober 2021)
Das Multitask-Eingabeaufenthalt kann eine Verallgemeinerung von Aufgaben mit Nullschulen erreichen (Okt. 2021)
Refactoring -Anweisungen zur Anpassung an die Sprache von GPTK (September 2021)
Entwurfsrichtlinien für Modelle zur Erzeugung von Text zu Image (September 2021)
Machen Sie vorab vorgelöste Sprachmodelle zu einem besseren lernenden Beispieler (August 2021).
Magische und geordnete Eingabeaufforderungen und deren Standort: Überwinden Sie eine kleine Anzahl von sofortigen Sequenzempfindlichkeit (April 2021)
Bertse: Lernen Sie mit Bert (April 2021) zu sprechen
Die Leistung der Skalenanpassung mit gültigen Parametern (April 2021)
TIPS -Programmierung für große Sprachmodelle: Über eine kleine Anzahl von Tipps überschreiten (Februar 2021)
Kalibrierung Vorverwendung: Verbesserung der kleinen Stichprobenleistung von Sprachmodellen (Februar 2021)
Präfixanpassung: Optimieren Sie kontinuierliche Eingabeaufforderungen für die Generation (Januar 2021)
AUTOPROMPT: Erfordernde Kenntnisse aus Sprachmodellen durch automatisch generierte Eingabeaufforderungen (Okt 2020)
Sprachmodelle sind kleine Lernende (Mai 2020)
Woher wissen wir, was Sprachmodelle wissen? (Juli 2020)
Anwendungen:
Sammlungen:
Wenn Sie der Meinung sind, dass etwas fehlt, senden Sie bitte eine PR. Feedback und Vorschläge sind ebenfalls willkommen.