Gedankenkette
Fassen Sie verwandte Papiere über COT zusammen.
Originalarbeit am COT:
- Erste Veröffentlichungszeit: 28. Januar 2022
- Titel: Kette der Gedanken, die Anlauferwiderung ausübt
- Konferenz: Neurips 2022
Inhalt
- Verwandte Umfragen
- COT -Verbesserung
- Zwei Hauptbettenarten
- Warum funktioniert Cot? - Analyse von COT
- COT -Bewertung
- Andere Kinderarten
Verwandte Umfragen
| Erste Veröffentlichungszeit | Titel | Konferenz |
|---|
| 27. September 2023 | Eine Übersicht über die Kette des Denkens: Fortschritte, Grenzen und Zukunft | Arxiv |
| 15. Februar 2023 | Erweiterte Sprachmodelle: Eine Umfrage | Arxiv |
| 4. Januar 2023 | Iterierte Zersetzung: Verbesserung der Wissenschafts- und Antworten der Wissenschaft durch Überwachung von Argumentationsprozessen | Arxiv |
| 20. Dezember 2022 | Um die Argumentation in Großsprachmodellen zu argumentieren: eine Umfrage | ACL 23 Erkenntnisse |
| 19. Dezember 2022 | Argumentation mit Sprachmodell Aufforderung: Eine Umfrage | ACL 2023 |
COT -Verbesserung
| Erste Veröffentlichungszeit | Titel | Was ändert sich? |
|---|
| 21. März 2022 | Selbstkonsistenz verbessert die Kette des Denkens in Sprachmodellen | naive gierige Decodierung => Selbstkonsistenz |
Zwei Hauptbettenarten
Null-Shot:
| Erste Veröffentlichungszeit | Titel | Konferenz |
|---|
| 6. Mai 2023 | Aufforderung zur Planung und Lösung | ACL 23 |
| 3. November 2022 | Große Sprachmodelle sind sofortige Ingenieure auf menschlicher Ebene | ICLR 23 |
| 24. Mai 2022 | Großspracher-Modelle sind Null-Shot-Dennzeichen | Neurips2022 |
Wenige Schüsse: Fünf Untergruppen
- Im Zusammenhang mit der Codegenerierung
- Auto COT
- Iteratives promptes Kinderbett
- Fragen zur Frage einbeziehen
- Mischen
Im Zusammenhang mit der Codegenerierung
| Erste Veröffentlichungszeit | Titel | Konferenz |
|---|
| 22. November 2022 | Programm von Gedankenanforderungen: Entwirrung der Berechnung von Argumentation für numerische Argumentationsaufgaben | Arxiv |
| 18. November 2022 | KAL: Programmen-unterstützte Sprachmodelle | ICML 2023 |
| 13. Oktober 2022 | Sprachmodelle von Code sind nur wenige Lernende von Commonsense-Lernern | EMNLP 2022 |
Fragen zur Frage einbeziehen
| Erste Veröffentlichungszeit | Titel | Konferenz |
|---|
| 8. Dezember 2022 | Aufeinanderfolgende Aufforderung zum Zerlegen komplexer Fragen | EMNLP 2022 |
| 7. Oktober 2022 | Messen und Verengung der Kompositionalitätslücke in Sprachmodellen | EMNLP 2023 (Ergebnisse) |
| 5. Oktober 2022 | Zerlegte Aufforderung: Ein modularer Ansatz zur Lösung komplexer Aufgaben | ICLR 2023 |
| 21. Mai 2022 | Die am wenigsten zu meistern | ICLR 2023 |
| 19. Mai 2022 | Auswahlinterferenz: Ausnutzung großer Sprachmodelle für interpretierbare logische Argumentation | ICLR 2023 |
| 15. Mai 2022 | SEQZERO: Wenige Schuss-semantische semantische Parsen mit sequentiellen Eingabeaufforderungen und Null-Shot-Modellen | Ergebnisse von NAACl 2022 |
Auto COT
| Erste Veröffentlichungszeit | Titel | Konferenz |
|---|
| 24. Februar 2023 | Automatische Auswahl und Auswahl der automatischen Einstellung mit gekennzeichneten Daten mit Kette der Kette | Arxiv |
| 7. Oktober 2022 | Automatische Denkkette, die in großen Sprachmodellen auffordert | ICLR 23 |
Warum funktioniert Cot? - Analyse von COT
| Erste Veröffentlichungszeit | Titel | Konferenz |
|---|
| 20. Dezember 2022 | Um die Kette der Gedanken zu verstehen: Eine empirische Untersuchung dessen, worauf es ankommt | ACL 2023 |
| 25. November 2022 | Komplementäre Erklärungen für ein effektives In-Kontext-Lernen | ACL 2023 (Ergebnisse) |
| 3. Oktober 2022 | Sprachmodelle sind gierige Vernunft: Eine systematische formale Analyse der Gedankenkette | ICLR 2023 |
| 16. September 2022 | Text und Muster: Für eine effektive Gedankenkette braucht es zwei bis Tango | Google -Forschung |
COT -Bewertung
Andere Kinderarten
| Erste Veröffentlichungszeit | Name | Titel | Konferenz |
|---|
| 28. Mai 2023 | Registerkarte | Tabrock: tabellarische Denkkette mit Null-Shot-Kette | ACL 23 Erkenntnisse |
| 17. Mai 2023 | Baum der Gedanken | Baum der Gedanken: Absichtliche Problemlösung mit großen Sprachmodellen | Arxiv |
| 9. Mai 2023 | Erinnerung an Gedanken | MOT: Vordenken und Rückruf ermöglichen es Chatgpt, sich mit dem Gedanke zu verpfändet | Arxiv |
| 22. November 2022 | Gedankenprogramm | Programm von Gedankenanforderungen: Entwirrung der Berechnung von Argumentation für numerische Argumentationsaufgaben | Arxiv |