Cadeia de pensamento
Resuma e classifique documentos relacionados sobre o COT.
Trabalho original no COT:
- Primeiro tempo de lançamento: 28 de janeiro de 2022
- Título: Cadeia de pensamento provocando o raciocínio em grandes modelos de idiomas
- Conferência: Neurips 2022
Contente
- Pesquisas relacionadas
- Melhoramento do berço
- Dois tipos principais de berços
- Por que o berço funciona? - Análise de COT
- Avaliação do COT
- Outros tipos de berços
Pesquisas relacionadas
| Primeiro tempo de lançamento | Título | Conferência |
|---|
| 27 de setembro de 2023 | Uma pesquisa da cadeia de raciocínio de pensamento: avanços, fronteiras e futuro | arxiv |
| 15 de fevereiro de 2023 | Modelos de idiomas aumentados: uma pesquisa | arxiv |
| 4 de janeiro de 2023 | Decomposição iterada: melhorando as perguntas e respostas da ciência supervisionando os processos de raciocínio | arxiv |
| 20 de dezembro de 2022 | Rumo ao raciocínio em grandes modelos de idiomas: uma pesquisa | ACL 23 descobertas |
| 19 de dezembro de 2022 | Raciocínio com o Modelo de Linguagem Promoting: Uma Pesquisa | ACL 2023 |
Melhoramento do berço
| Primeiro tempo de lançamento | Título | O que muda? |
|---|
| 21 de março de 2022 | A autoconsistência melhora o raciocínio da cadeia de pensamentos em modelos de idiomas | decodificação gananciosa ingênua => autoconsistência |
Dois tipos principais de berços
Zero-shot:
| Primeiro tempo de lançamento | Título | Conferência |
|---|
| 6 de maio de 2023 | Plano e solução Promotamento: Melhorando o raciocínio da cadeia de pensamento zero-tiro por grandes modelos de idiomas | ACL 23 |
| 3 de novembro de 2022 | Modelos de idiomas grandes são engenheiros rápidos em nível humano | ICLR 23 |
| 24 de maio de 2022 | Modelos de idiomas grandes são motivos de tiro zero | Neurips2022 |
Fezy-shot: cinco subgrupos
- Relacionado à geração de código
- Berço automático
- Berço imediato iterativo
- Envolva a decomposição de perguntas
- Mistura
Relacionado à geração de código
| Primeiro tempo de lançamento | Título | Conferência |
|---|
| 22 de novembro de 2022 | Programa de pensamentos solicitando: Deixe a computação do raciocínio para tarefas de raciocínio numérico | arxiv |
| 18 de novembro de 2022 | Pal: modelos de idiomas auxiliados pelo programa | ICML 2023 |
| 13 de outubro de 2022 | Modelos de idiomas de código são poucos alunos do senso comum | EMNLP 2022 |
Envolva a decomposição de perguntas
| Primeiro tempo de lançamento | Título | Conferência |
|---|
| 8 de dezembro de 2022 | Solicitação sucessiva para decompor questões complexas | EMNLP 2022 |
| 7 de outubro de 2022 | Medindo e estreitando a lacuna de composicionalidade em modelos de linguagem | EMNLP 2023 (descobertas) |
| 5 de outubro de 2022 | Promotamento decomposto: uma abordagem modular para resolver tarefas complexas | ICLR 2023 |
| 21 de maio de 2022 | Promoção menos ao máximo permite o raciocínio complexo em grandes modelos de linguagem | ICLR 2023 |
| 19 de maio de 2022 | Inferência de seleção: explorando grandes modelos de linguagem para raciocínio lógico interpretável | ICLR 2023 |
| 15 de maio de 2022 | SEQZERO: A análise semântica de composicional com poucas fotos com prompts seqüenciais e modelos de tiro zero | Resultados de Naacl 2022 |
Berço automático
| Primeiro tempo de lançamento | Título | Conferência |
|---|
| 24 de fevereiro de 2023 | Aumentação imediata automática e seleção com a cadeia de pensamento a partir de dados rotulados | arxiv |
| 7 de outubro de 2022 | Cadeia de pensamento automática solicitando em grandes modelos de linguagem | ICLR 23 |
Por que o berço funciona? - Análise de COT
| Primeiro tempo de lançamento | Título | Conferência |
|---|
| 20 de dezembro de 2022 | Para entender a cadeia de pensamento que solicita: um estudo empírico do que importa | ACL 2023 |
| 25 de novembro de 2022 | Explicações complementares para uma aprendizagem eficaz no contexto | ACL 2023 (descobertas) |
| 3 de outubro de 2022 | Modelos de idiomas são raciocínio ganancioso: uma análise formal sistemática da cadeia de pensamentos | ICLR 2023 |
| 16 de setembro de 2022 | Texto e padrões: Para uma cadeia de pensamento eficaz, é preciso dois para o tango | Pesquisa do Google |
Avaliação do COT
Outros tipos de berços
| Primeiro tempo de lançamento | Nome | Título | Conferência |
|---|
| 28 de maio de 2023 | Tab-cot | Tab-cot: cadeia tabular de pensamento zero tiro | ACL 23 descobertas |
| 17 de maio de 2023 | Árvore dos pensamentos | Árvore dos pensamentos: resolução deliberada de problemas com grandes modelos de linguagem | arxiv |
| 9 de maio de 2023 | Memória dos pensamentos | MOT: Pré-pensamento e recordação Ativar Chatgpt a se auto-melhorar com a memória | arxiv |
| 22 de novembro de 2022 | Programa de pensamentos | Programa de pensamentos solicitando: Deixe a computação do raciocínio para tarefas de raciocínio numérico | arxiv |