Cadena de pensamiento
Resumir y clasificar los documentos relacionados sobre la cuna.
Trabajo original en cuna:
- Primer tiempo de lanzamiento: 28 de enero de 2022
- Título: La provisión de la cadena de pensamiento provoca el razonamiento en modelos de idiomas grandes
- Conferencia: Neurips 2022
Contenido
- Encuestas relacionadas
- Mejora de la cuna
- Dos tipos principales de cunas
- ¿Por qué funciona la cuna? - Análisis de cuna
- Evaluación de la cuna
- Otros tipos de cunas
Encuestas relacionadas
| Primer tiempo de lanzamiento | Título | Conferencia |
|---|
| 27 de septiembre de 2023 | Una encuesta de razonamiento de la cadena de pensamiento: avances, fronteras y futuro | arxiv |
| 15 de febrero de 2023 | Modelos de idiomas aumentados: una encuesta | arxiv |
| 4 de enero de 2023 | Descomposición iterada: Mejora de las preguntas y respuestas de la ciencia supervisando los procesos de razonamiento | arxiv |
| 20 de diciembre de 2022 | Hacia el razonamiento en modelos de idiomas grandes: una encuesta | ACL 23 hallazgos |
| 19 de diciembre de 2022 | Razonamiento con indicación del modelo de idioma: una encuesta | ACL 2023 |
Mejora de la cuna
| Primer tiempo de lanzamiento | Título | ¿Qué cambia? |
|---|
| 21 de marzo de 2022 | La autoconsistencia mejora el razonamiento de la cadena de pensamiento en los modelos de idiomas | decodificación codiciosa ingenua => autoconsistencia |
Dos tipos principales de cunas
Cero-shot:
| Primer tiempo de lanzamiento | Título | Conferencia |
|---|
| 6 de mayo de 2023 | Preparación de planificación y resuelto: Mejora del razonamiento de la cadena de pensamiento cero de los modelos de idiomas grandes | ACL 23 |
| 3 de noviembre de 2022 | Los modelos de idiomas grandes son ingenieros de inmediato a nivel humano | ICLR 23 |
| 24 de mayo de 2022 | Los modelos de idiomas grandes son razonadores de disparo cero | Neurips2022 |
Pocos disparos: cinco subgrupos
- Relacionado con la generación de códigos
- Cuna automática
- Cot de inmediato iterativo
- Implica la descomposición de la pregunta
- Mezcla
Relacionado con la generación de códigos
| Primer tiempo de lanzamiento | Título | Conferencia |
|---|
| 22 de noviembre de 2022 | Programa de indicaciones de pensamientos: Computación desenredada del razonamiento para tareas de razonamiento numérico | arxiv |
| 18 de noviembre de 2022 | PAL: modelos de idiomas asistidos por programas | ICML 2023 |
| 13 de octubre de 2022 | Los modelos de idiomas de código son aprendices de sentido común de pocos disparos | EMNLP 2022 |
Implica la descomposición de la pregunta
| Primer tiempo de lanzamiento | Título | Conferencia |
|---|
| 8 de diciembre de 2022 | Solicitud sucesiva para la descomposición de preguntas complejas | EMNLP 2022 |
| 7 de octubre de 2022 | Medir y reducir la brecha de composición en los modelos de lenguaje | EMNLP 2023 (hallazgos) |
| 5 de octubre de 2022 | Información descompuesta: un enfoque modular para resolver tareas complejas | ICLR 2023 |
| 21 de mayo de 2022 | La solicitud de menor a mayoría permite un razonamiento complejo en modelos de idiomas grandes | ICLR 2023 |
| 19 de mayo de 2022 | Inferencia de selección: explotar modelos de lenguaje grande para un razonamiento lógico interpretable | ICLR 2023 |
| 15 de mayo de 2022 | Seqzero: analizador semántico compositivo de pocos disparos con indicaciones secuenciales y modelos de cero disparos | Hallazgos de NAACL 2022 |
Cuna automática
| Primer tiempo de lanzamiento | Título | Conferencia |
|---|
| 24 de febrero de 2023 | Aumento automático y selección con la cadena de pensamiento de los datos etiquetados | arxiv |
| 7 de octubre de 2022 | Cadena de pensamiento automático de la cadena de pensamiento en modelos de idiomas grandes | ICLR 23 |
¿Por qué funciona la cuna? - Análisis de cuna
| Primer tiempo de lanzamiento | Título | Conferencia |
|---|
| 20 de diciembre de 2022 | Hacia la comprensión de la provisión de la cadena de pensamiento: un estudio empírico de lo que importa | ACL 2023 |
| 25 de noviembre de 2022 | Explicaciones complementarias para un aprendizaje efectivo en contexto | ACL 2023 (hallazgos) |
| 3 de octubre de 2022 | Los modelos de idiomas son razonadores codiciosos: un análisis formal sistemático de la cadena de pensamiento | ICLR 2023 |
| 16 de septiembre de 2022 | Texto y patrones: para una cadena de pensamiento efectiva, se necesitan dos en tango | Investigación de Google |
Evaluación de la cuna
Otros tipos de cunas
| Primer tiempo de lanzamiento | Nombre | Título | Conferencia |
|---|
| 28 de mayo de 2023 | Pestaña | Tab-cot: cadena de pensamiento tabular de disparo cero | ACL 23 hallazgos |
| 17 de mayo de 2023 | Árbol de pensamientos | Árbol de pensamientos: resolución deliberada de problemas con modelos de idiomas grandes | arxiv |
| 9 de mayo de 2023 | Memoria de los pensamientos | MOT: Pre-pensamiento y recordatorio para permitir que ChatGPT se supere con la memoria de pensamiento | arxiv |
| 22 de noviembre de 2022 | Programa de pensamientos | Programa de indicaciones de pensamientos: Computación desenredada del razonamiento para tareas de razonamiento numérico | arxiv |