Tolle schnelle technische
Dieses Repository enthält eine handkulturelle Ressourcen für ein schnelles Engineering mit einem Fokus auf generatives vorgebildetes Transformator (GPT), Chatgpt, Palm usw.
Prompt Engineering Course is coming soon..
Inhaltsverzeichnis
- Papiere
- Tools & Code
- Apis
- Datensätze
- Modelle
- KI -Inhaltsdetektoren
- Bildung
- Videos
- Bücher
- Gemeinschaften
- Wie man beiträgt
Papiere
?
Schnelle technische Techniken :
- Textmining für promptierte Engineering: Text-ausgelöste Open Knowledge-Diagramm-Abschluss über PLMS [2023] (ACL)
- Ein sofortiger Musterkatalog zur Verbesserung der schnellen Engineering mit ChatGPT [2023] (ARXIV)
- Harte Eingabeaufforderungen einfach gemacht: Gradientenbasierte diskrete Optimierung für ein schnelles Tuning und Entdeckung [2023] (ARXIV)
- Synthetische Aufforderung: Erzeugung von Demonstrationen der Kette der Gedanken für große Sprachmodelle [2023] (ARXIV)
- Progressive Eingabeaufforderungen: Kontinuierliches Lernen für Sprachmodelle [2023] (ARXIV)
- Batch -Aufforderung: Effiziente Inferenz mit LLM -APIs [2023] (Arxiv)
- Aufeinanderfolgende Aufforderung zur entschärften komplexen Fragen [2022] (ARXIV)
- Strukturierte Aufforderung: Skalierung des Kontextlernens auf 1.000 Beispiele [2022] (ARXIV)
- Große Sprachmodelle sind PROPUT-Ingenieure auf menschlicher Ebene [2022] (ARXIV)
- Fragen Sie mich irgendetwas: Eine einfache Strategie für die Aufforderung von Sprachmodellen [2022] (Arxiv)
- Aufforderung an GPT-3, zuverlässig zu sein 2022
- Zersetzt Aufforderung: Ein modularer Ansatz zur Lösung komplexer Aufgaben [2022] (ARXIV)
- PromptChainer: Das Anketten großer Sprachmodell Aufforderungen durch visuelle Programmierung [2022] (ARXIV)
- Untersuchung der schnellen Engineering in Diffusionsmodellen [2022] (ARXIV)
- Zeigen Sie Ihre Arbeit: Scratchpads für Zwischenberechnung mit Sprachmodellen [2021] (ARXIV)
- Aufforderungsaufforderungen in die Sprache von GPTK [2021] (ARXIV) neu gestalten
- Fantastisch geordnete Eingabeaufforderungen und wo man sie findet: Überwindung der Empfindlichkeit der Eingabeaufentwicklung von wenigen Scheinen [2021] (ARXIV)
- Die Skalierungsleistung für parametereffiziente Eingabeaufforderung [2021] (ARXIV)
- Proportionsprogrammierung für große Sprachmodelle: Über das wenige Paradigma hinaus [2021] (ARXIV)
- Präfix-Tuning: Optimieren Sie kontinuierliche Eingabeaufforderungen für die Erzeugung [2021] (ARXIV)
Argumentation und Kontextlernen :
- Multimodales Denken in den Gedanken in Sprachmodellen [2023] (ARXIV)
- Denken wir beim zweiten Gedanken nicht Schritt für Schritt nach! Verzerrung und Toxizität im Null-Shot-Argumentation [2022] (Arxiv)
- Reaktieren: Synergisierung von Denken und Handeln in Sprachmodellen [2022] (Arxiv)
- Sprachmodelle sind gierige Vernunft: Eine systematische formale Analyse der Gedankenkette [2022] (ARXIV)
- Über den Fortschritt von Sprachmodellen zu besseren Dennzeichen [2022] (ARXIV)
- Großsprachenmodelle sind Null-Shot-Gründe [2022] (ARXIV)
- Argumentation wie Programmausführer [2022] (ARXIV)
- Selbstkonsistenz verbessert die Kette des Denkens in Sprachmodellen [2022] (ARXIV)
- Überdenken Sie die Rolle von Demonstrationen: Was macht das Lernen im Kontext zum Lernen? [2022] (Arxiv)
- Erklären Sie zu erklären: Multimodales Denken über Gedankenketten zur Beantwortung von Fragen der wissenschaftlichen Frage [2022] (ARXIV)
- Kette von Gedankenanforderungen liefert Argumentation in Großsprachenmodellen [2021] (ARXIV)
- Erzeugte Kenntnisse, die für vernünftige Argumentation veranlasst werden [2021] (ARXIV)
- Bertse: Lernen, mit Bert [2021] zu sprechen (ACL)
Bewertung und Verbesserung von Sprachmodellen :
- Großsprachige Modelle können leicht durch irrelevanten Kontext abgelenkt werden [2023] (ARXIV)
- Krabbeln der internen Wissensbasis von Sprachmodellen [2023] (ARXIV)
- Entdeckung von Sprachmodellverhalten mit modellgeschriebenen Bewertungen [2022] (ARXIV)
- Kalibrieren vor der Verwendung: Verbesserung der Leistung von Sprachmodellen wenige Schüsse [2021] (ARXIV)
Anwendungen von Sprachmodellen :
- Umformeln und antworten: Lassen Sie Großsprachenmodelle bessere Fragen stellen [2023] (ARXIV)
- Aufforderung zur multimodalen Hass -Meme -Klassifizierung [2023] (ARXIV)
- Orte: Sprachmodelle für die soziale Konversationssynthese einbeziehen [2023] (ARXIV)
- CommonSense-Awesa-auf-Aufforderung zur kontrollierbaren einfühlsamen Dialoggenerierung [2023] (ARXIV)
- PAL: Programmendurchschnittliche Sprachmodelle 2023
- Rechtliche Ingenieurwesen für mehrsprachige Vorhersage von Rechtsurteilern [2023] (ARXIV)
- Gespräch mit Copilot: Erforschung der schnellen Engineering zur Lösung von CS1 -Problemen mithilfe der natürlichen Sprache [2022] (ARXIV)
- Plot-Schreiben von Grund auf vorgeschriebene Sprachmodelle [2022] (ACL)
- Autoprompt: Wissen aus Sprachmodellen mit automatisch generierten Eingabeaufforderungen [2020] (ARXIV) auslösen
Bedrohungserkennung und kontroverse Beispiele :
- Konstitutionelle KI: Harmlosigkeit durch KI -Feedback [2022] (Arxiv)
- Vorherige Eingabeaufforderung ignorieren: Angriffstechniken für Sprachmodelle [2022] (ARXIV)
- Machine Generierte Text: Eine umfassende Übersicht über Bedrohungsmodelle und Erkennungsmethoden [2022] (ARXIV)
- Bewertung der Anfälligkeit von vorgeborenen Sprachmodellen anhand handgefertigter kontroverser Beispiele [2022] (ARXIV)
- Toxizitätserkennung mit generativen prompt-basierten Inferenz [2022] (ARXIV)
- Wie können wir wissen, was Sprachmodelle wissen? [2020] (MIT)
Wenige Schusslern- und Leistungsoptimierung :
- Promptagator: wenige schilm dichte Abruf von 8 Beispielen [2022] (ARXIV)
- Die Unzuverlässigkeit von Erklärungen in wenigen Schüssen Aufforderung zum textuellen Denken [2022] (ARXIV)
- Vorausgebildete Sprachmodelle besser wenige Schusslernende machen [2021] (ACL)
- Sprachmodelle sind nur wenige Schusslernende [2020] (ARXIV)
Text zur Bilderzeugung :
- Eine Taxonomie von schnellen Modifikatoren für die Erzeugung von Text-zu-Image [2022] (ARXIV)
- Entwurfsrichtlinien für sofortige technische Text-zu-Image-Generativmodelle [2021] (ARXIV)
- Hochauflösende Bildsynthese mit latenten Diffusionsmodellen [2021] (ARXIV)
- Dall · e: Bilder aus Text erstellen [2021] (Arxiv)
Text an Musik/Klanggenerierung :
- MusicLM: Musik aus Text generieren [2023] (Arxiv)
- Ernie-Musik: Text-to-WaveForm-Musikgenerierung mit Diffusionsmodellen [2023] (ARXIV)
- Noise2Music: Text-konditionierte Musikgenerierung mit Diffusionsmodellen [2023) (ARXIV)
- Audiolm: Ein Sprachmodellierungsansatz zur Audiogenerierung [2023] (ARXIV)
- Make-An-Audio: Text-to-Audio-Generation mit prompt-verstärkten Diffusionsmodellen [2023] (ARXIV)
Text zur Videogenerierung :
- Dreamix: Videodiffusionsmodelle sind allgemeine Video -Editoren [2023] (ARXIV)
- Tune-a-video: One-Shot-Abstimmung von Bilddiffusionsmodellen für die Erzeugung von Text zu Video [2022] (ARXIV)
- Noise2Music: Text-konditionierte Musikgenerierung mit Diffusionsmodellen [2023) (ARXIV)
- Audiolm: Ein Sprachmodellierungsansatz zur Audiogenerierung [2023] (ARXIV)
Übersichten :
- Piloting Copilot und Codex: Heiße Temperatur, Kaltanforderungen oder schwarze Magie? [2022] (Arxiv)
Tools & Code
?
| Name | Beschreibung | URL |
|---|
| Llamaindex | Llamaindex ist ein Projekt, das aus einer Reihe von Datenstrukturen besteht, die es einfacher machen, große externe Wissensbasis mit LLMs zu verwenden. | [Github] |
| Eingabeaufforderung | Lösen | [Github] |
| Arize-Phoenix | Open-Source-Tool für ML-Beobachtbarkeit, das in Ihrer Notebook-Umgebung ausgeführt wird. Überwachen und feine Melodie -LLM-, CV- und tabellarische Modelle. | [Github] |
| Bessere Aufforderung | Testsuite für LLM -Eingabeaufforderungen, bevor Sie sie zum Produkt drücken | [Github] |
| Cometllm | Logieren, visualisieren und bewerten Sie Ihre LLM -Eingabeaufforderungen, Eingabeaufforderungsvorlagen, Eingabeaufforderungsvariablen, Metadaten und mehr. | [Github] |
| Einbettchain | Framework zum Erstellen von Chatgpt -wie Bots über Ihrem Datensatz | [Github] |
| Interaktive Kompositions -Explorerx | ICE ist eine Python -Bibliothek und ein Trace Visualizer für Sprachmodellprogramme. | [Github] |
| Heuhaufen | Open Source NLP Framework Um mit Ihren Daten mit LLMs und Transformers zu interagieren. | [Github] |
| Langchainx | Bauen von Anwendungen mit LLMs durch Kompositionsfähigkeit | [Github] |
| OpenPrompt | Ein Open-Source-Framework für ein schnelles Lernen | [Github] |
| Schnellmotor | Dieses Repo enthält eine NPM -Dienstprogrammbibliothek zum Erstellen und Wartung von Eingabeaufforderungen für Großsprachmodelle (LLMs). | [Github] |
| Promptinject | Promptinject ist ein Framework, der modulare Aufforderungen zusammenstellt, um eine quantitative Analyse der Robustheit von LLMs gegenüber kontroversen Eingabeaufforderungen zu ermöglichen. | [Github] |
| Fordert AI auf | Fortgeschrittener Spielplatz für GPT-3 | [Github] |
| Eingabeaufforderung | Eingabeaufforderung ist ein Toolkit zum Erstellen, Teilen und Gebrauch von natürlichen Sprachaufforderungen. | [Github] |
| Theidenource | Ein Rahmen für die Wissenschaft des Maschinendenkens | [Github] |
| Promptmetheus | One-Shot Prompt Engineering Toolkit | [Werkzeug] |
| AI -Konfiguration | Ein Open-Source-Konfigurationsbasis für das Erstellen von Anwendungen mit LLMs | [Github] |
| Lastmile ai | Notebook-ähnlicher Spielplatz für die Interaktion mit LLMs über verschiedene Modalitäten hinweg (Text, Sprache, Audio, Bild) | [Werkzeug] |
| Xpulsai | Erstellen Sie mühelos skalierbare KI -Apps. Autops -Plattform für AI & ML | [Werkzeug] |
| Agenta | Agenta ist eine Open-Source-LLM-Entwicklerplattform mit den Tools für das schnelle Management, die Bewertung, das menschliche Feedback und die Bereitstellung an einem Ort. | [Github] |
| Promptotype | Entwickeln, testen und überwachen Sie Ihre LLM {strukturierten} Aufgaben | [Werkzeug] |
Apis
| Name | Beschreibung | URL | Bezahlt oder offen |
|---|
| Openai | GPT-N für natürliche Sprachaufgaben, Codex für die natürliche Sprache in den Code übersetzt und Dall · e für Erstellen und Bearbeitet Originalbilder erstellt und bearbeitet | [OpenAI] | Bezahlt |
| Coherai | Cohere bietet Zugriff auf erweiterte Großsprachmodelle und NLP -Tools über eine API | [Cohereai] | Bezahlt |
| Anthropisch | Bald kommen | [Anthropisch] | Bezahlt |
| Flan-t5 xxl | Bald kommen | [Umarmung] | Open-Source |
Datensätze
?
| Name | Beschreibung | URL |
|---|
| P3 (öffentlicher Pool von Eingabeaufforderungen) | P3 (öffentlicher Pool von Eingabeaufforderungen) ist eine Sammlung von englischen Datensätzen, die eine Vielzahl von NLP -Aufgaben abdecken. | [Umarmung] |
| Tolle Chatgpt -Eingabeaufforderungen | Repo enthält Chatgpt -Eingabeaufforderung, um Chatgpt besser zu verwenden. | [Github] |
| Schreibaufforderungen | Sammlung eines großen Datensatzes mit 300K-Geschichten, die von Menschen geschrieben wurden, gepaart mit Schreibaufforderungen aus einem Online-Forum (Reddit) | [Kaggle] |
| Midjourney -Aufforderungen | Texteingabeaufforderungen und Bild -URLs, die vom öffentlichen Discord -Server von Midjourney abgeschafft wurden | [Umarmung] |
Modelle
?
| Name | Beschreibung | URL |
|---|
| Chatgpt | Chatgpt | [OpenAI] |
| Kodex | Die Codex-Modelle sind Nachkommen unserer GPT-3-Modelle, die Code verstehen und generieren können. Ihre Schulungsdaten enthält sowohl natürliche Sprache als auch Milliarden von öffentlichen Code -Zeilen von GitHub | [Github] |
| Blühen | BigScience Large Open-Science Open-Access mehrsprachiger Sprachmodell | [Umarmung] |
| Facebook LLM | Opt-175b ist ein von Meta ausgebildeter GPT-3-Äquivalentmodell. Es ist bei weitem das größte vorbereitete Sprachmodell mit 175 Milliarden Parametern. | [ALPA] |
| GPT-Neox | GPT-NEOX-20B, ein autoregressives Sprachmodell von 20 Milliarden Parameter, das auf dem Stapel trainiert wurde | [Umarmung] |
| Flan-t5 xxl | FLAN-T5 ist ein Modell mit Anweisungen, was bedeutet, dass es bei Anweisungen als Teil der Eingabeaufforderung keine Verhaltensweisen auf null schuhe aufweist. | [Huggingface/Google] |
| XLM-Roberta-XL | XLM-Roberta-XL-Modell, das auf 2,5 TB gefilterte Commoncrawl-Daten mit 100 Sprachen vorgeschrieben ist. | [Umarmung] |
| GPT-J | Es ist ein GPT-2-ähnliches kausales Sprachmodell, das auf dem Stapeldatensatz trainiert wurde | [Umarmung] |
| Palm-rlhf-Pytorch | Implementierung von RLHF (Verstärkungslernen mit menschlichem Feedback) über die Palmarchitektur. Grundsätzlich Chatgpt, aber mit Palm | [Github] |
| Gpt-neo | Eine Implementierung des Modells parallel GPT-2 und GPT-3-Modelle unter Verwendung der Mesh-Tensorflow-Bibliothek. | [Github] |
| Lamda-rlhf-pytorch | Open-Source-Implementierung von Google von Google Lamda in Pytorch. Hinzufügen von RLHF ähnlich wie Chatgpt. | [Github] |
| Rlhf | Implementierung des Verstärkungslernens aus menschlichem Feedback (RLHF) | [Github] |
| GLM-130B | GLM-130b: Ein offenes zweisprachiges vorgebildetes Modell | [Github] |
| MIMTRAL-84B | Mixtral-84b ist eine Mischung aus Expertemodell (MOE) mit 8 Experten pro MLP. | [Umarmung] |
KI -Inhaltsdetektoren
?
| Name | Beschreibung | URL |
|---|
| AI Textklassifizierer | Der KI-Textklassifizierer ist ein fein abgestimmtes GPT-Modell, das vorhersagt, wie wahrscheinlich es ist, dass KI von AI aus einer Vielzahl von Quellen wie ChatGPT generiert wurde. | [OpenAI] |
| GPT-2-Ausgangsdetektor | Dies ist eine Online-Demo des GPT-2-Ausgangsdetektormodells, basierend auf der Implementierung von Roberta/Transformers. | [Umarmung] |
| Openai -Detektor | AI-Klassifizierer zur Anzeige von AI-geschriebenem Text (OpenAI-Detektor Python Wrapper) | [Github] |
Kurse
? ?
- Chatgpt prompt Engineering für Entwickler von DeepLearning.ai
- Schnelltechnik für Visionsmodelle von DeepLearning.ai
Tutorials
Einführung in die schnelle Technik
- Schnelltechnik 101 - Einführung und Ressourcen
- Schnelltechnik 101
- Schnuretechnikhandbuch von Sudalairajkumar
Anfängerleitfaden zu generativen Sprachmodellen
- Ein Anfänger -freundlicher Leitfaden zu generativen Sprachmodellen - Lambda Guide
- Generative AI mit Cohere: Teil 1 - Modellaufforderung
Best Practices für schnelle Technik
- Best Practices für schnelle Engineering mit OpenAI -API
- Wie man gute Eingabeaufforderungen schreibt
Vollständige Anleitung zum schnellen Engineering
- Eine vollständige Einführung in das schnelle Engineering für große Sprachmodelle
- Eingabeaufforderung
Technische Aspekte der schnellen Technik
- 3 Prinzipien für die schnelle Ingenieurwesen mit GPT-3
- Ein generisches Framework für Chatgpt -Eingabeaufforderung Engineering
- Methoden der schnellen Programmierung
Ressourcen für schnelle Engineering
- Tolle Chatgpt -Eingabeaufforderungen
- Beste 100+ stabile Diffusionsaufforderungen
- Dalle prompt Buch
- OpenAI -Kochbuch
- Schnuretechnik durch Microsoft
Videos
?
- Advanced Chatgpt prompt Engineering
- CHATGPT: 5 schnelle technische Geheimnisse für Anfänger
- CMU Advanced NLP 2022: Aufforderung
- Schnelltechnik - Ein neuer Beruf?
- CHATGPT -Handbuch: 10x Ihre Ergebnisse mit besseren Eingabeaufforderungen
- Sprachmodelle und schnelle Engineering: Systematische Übersicht über die Aufforderung Methoden in NLP
- Eingabeaufforderung für Engineer
Gemeinschaften
?
- Openai Discord
- Eingabeaufforderung
- Aufforderung lernen
- R/Chatgpt Discord
- Midjourney Discord
Wie man beiträgt
Wir begrüßen Beiträge zu dieser Liste! Tatsächlich ist dies der Hauptgrund, warum ich es geschaffen habe - um Beiträge zu ermutigen und die Menschen zu ermutigen, Änderungen zu abonnieren, um über neue und aufregende Entwicklungen in der Welt der Großsprachenmodelle (LLMs) und über ein Engineering auf dem Laufenden zu bleiben.
Nehmen Sie sich vor dem Beitrag einen Moment Zeit, um unsere Beitragsrichtlinien zu überprüfen. Diese Richtlinien tragen dazu bei, dass Ihre Beiträge mit unseren Zielen übereinstimmen und unsere Standards für Qualität und Relevanz entsprechen. Vielen Dank für Ihr Interesse, zu diesem Projekt beizutragen!
Bildquelle: docs.coher.ai