Chaîne de pensées
Résumer et classer les articles connexes sur le COT.
Travail original sur le COT:
- Temps de première sortie: 28 janvier 2022
- Titre: L'incitation de la chaîne de pensées provoque un raisonnement dans des modèles de grande langue
- Conférence: Neirips 2022
Contenu
- Enquêtes connexes
- Amélioration du lit
- Deux principaux types de lits
- Pourquoi le COT fonctionne? - Analyse du COT
- Évaluation du COT
- Autres types de lits
Enquêtes connexes
| Temps de première version | Titre | Conférence |
|---|
| 27 septembre 2023 | Une enquête sur le raisonnement de la chaîne de pensée: avancées, frontières et future | arxiv |
| 15 février 2023 | Modèles de langue augmentée: une enquête | arxiv |
| 4 janvier 2023 | Décomposition itérée: améliorer les questions et réponses scientifiques en supervisant les processus de raisonnement | arxiv |
| 20 décembre 2022 | Vers le raisonnement dans les modèles de grande langue: une enquête | Résultats de l'ACL 23 |
| 19 décembre 2022 | Raisonnement avec un modèle de langue Invite: une enquête | ACL 2023 |
Amélioration du lit
| Temps de première version | Titre | Quels changements? |
|---|
| 21 mars 2022 | L'auto-cohérence améliore le raisonnement de la chaîne dans les modèles de langues | décodage gourmand naïf => auto-cohérence |
Deux principaux types de lits
Zéro-shot:
| Temps de première version | Titre | Conférence |
|---|
| 6 mai 2023 | Plan-et-résolution Invitation: Amélioration du raisonnement de chaîne de pensée zéro par des modèles de grande langue | ACL 23 |
| 3 novembre 2022 | Les modèles de grands langues sont des ingénieurs rapides au niveau humain | ICLR 23 |
| 24 mai 2022 | Les modèles de grandes langues sont des raisonneurs à tirs zéro | Nererips2022 |
Quelques coups: cinq sous-groupes
- Lié à la génération de code
- Lit de voiture
- Lit invite itératif
- Impliquer la décomposition des questions
- Mélanger
Lié à la génération de code
| Temps de première version | Titre | Conférence |
|---|
| 22 novembre 2022 | Programme de pensées Invitation: démontage du calcul du raisonnement pour les tâches de raisonnement numérique | arxiv |
| 18 novembre 2022 | PAL: Modèles linguistiques assistés par le programme | ICML 2023 |
| 13 octobre 2022 | Les modèles linguistiques de code sont des apprenants de bon sens à quelques coups | EMNLP 2022 |
Impliquer la décomposition des questions
| Temps de première version | Titre | Conférence |
|---|
| 8 décembre 2022 | Invitation successive pour décomposer des questions complexes | EMNLP 2022 |
| 7 octobre 2022 | Mesurer et rétrécir l'écart de compositionnalité dans les modèles de langues | EMNLP 2023 (résultats) |
| 5 octobre 2022 | Invitation décomposée: une approche modulaire pour résoudre des tâches complexes | ICLR 2023 |
| 21 mai 2022 | La moindre incitation la plus la plus importante permet un raisonnement complexe dans des modèles de langue importants | ICLR 2023 |
| 19 mai 2022 | Indication de sélection: exploiter des modèles de grande langue pour le raisonnement logique interprétable | ICLR 2023 |
| 15 mai 2022 | Seqzero: analyse sémantique de composition à quelques coups avec des invites séquentielles et des modèles zéro | Résultats de NAACL 2022 |
Lit de voiture
| Temps de première version | Titre | Conférence |
|---|
| 24 février 2023 | Augmentation et sélection invite automatique avec une chaîne de pensées à partir de données étiquetées | arxiv |
| 7 octobre 2022 | Chaîne de pensée automatique Invitant dans les modèles de grande langue | ICLR 23 |
Pourquoi le COT fonctionne? - Analyse du COT
| Temps de première version | Titre | Conférence |
|---|
| 20 décembre 2022 | Vers la compréhension de l'incitation à la chaîne de pensées: une étude empirique de ce qui compte | ACL 2023 |
| 25 novembre 2022 | Explications complémentaires de l'apprentissage efficace dans le contexte | ACL 2023 (résultats) |
| 3 octobre 2022 | Les modèles linguistiques sont des raisonneurs gourmands: une analyse formelle systématique de la chaîne de pensées | ICLR 2023 |
| 16 septembre 2022 | Texte et motifs: pour une chaîne de pensée efficace, il faut deux à Tango | Recherche Google |
Évaluation du COT
Autres types de lits
| Temps de première version | Nom | Titre | Conférence |
|---|
| 28 mai 2023 | Houpon | Tab-Cot: chaîne de pensée tabulaire à tirs zéro | Résultats de l'ACL 23 |
| 17 mai 2023 | Arbre de pensées | Arbre de pensées: résolution de problèmes délibérée avec de grands modèles de langue | arxiv |
| 9 mai 2023 | Mémoire des pensées | MOT: Pré-Thinking et Rappel permettent à Chatgpt de s'auto-impression avec la mémoire de l'intermédiaire | arxiv |
| 22 novembre 2022 | Programme de pensées | Programme de pensées Invitation: démontage du calcul du raisonnement pour les tâches de raisonnement numérique | arxiv |