Rantai-dipikirkan
Merangkum dan mengklasifikasikan makalah terkait tentang cot.
Karya asli di COT:
- Waktu rilis pertama: 28 Jan 2022
- Judul: Rantai-pemikiran yang mendorong memunculkan penalaran dalam model bahasa besar
- Konferensi: Neurips 2022
Isi
- Survei Terkait
- Peningkatan COT
- Dua Jenis Karen Utama
- Mengapa Rekanan Bekerja? - Analisis COT
- Evaluasi COT
- Jenis Cot Lainnya
Survei Terkait
| Waktu rilis pertama | Judul | Konferensi |
|---|
| 27 Sep 2023 | Survei Penalaran Rantai Pikiran: Kemajuan, Perbatasan dan Masa Depan | arxiv |
| 15 Feb 2023 | Augmented Language Models: Sebuah Survei | arxiv |
| 4 Jan 2023 | Dekomposisi Iterasi: Meningkatkan Tanya Jawab Sains dengan mengawasi proses penalaran | arxiv |
| 20 Des 2022 | Menuju penalaran dalam model bahasa besar: survei | ACL 23 Temuan |
| 19 Desember 2022 | Penalaran dengan Model Bahasa yang Didorong: Survei | ACL 2023 |
Peningkatan COT
| Waktu rilis pertama | Judul | Perubahan apa? |
|---|
| 21 Mar 2022 | Konsistensi diri meningkatkan penalaran rantai pemikiran dalam model bahasa | decoding serakah naif => konsistensi diri |
Dua Jenis Karen Utama
Zero-shot:
| Waktu rilis pertama | Judul | Konferensi |
|---|
| 6 Mei 2023 | PROMEDS PENGOBATAN: MENINGKATKAN PENGUNGKAPAN Rantai Zero-shot oleh model bahasa besar | ACL 23 |
| 3 Nov 2022 | Model bahasa besar adalah insinyur prompt tingkat manusia | Iclr 23 |
| 24 Mei 2022 | Model Bahasa Besar adalah Nol-Shot Reasoners | Neurips2022 |
Beberapa shot: lima sub-kelompok
- Terkait dengan pembuatan kode
- Rekanan otomatis
- Rekanan prompt berulang
- Melibatkan pembusukan pertanyaan
- Mencampur
Terkait dengan pembuatan kode
| Waktu rilis pertama | Judul | Konferensi |
|---|
| 22 Nov 2022 | Program pemikiran yang diminta: Menghilangkan perhitungan dari penalaran untuk tugas penalaran numerik | arxiv |
| 18 Nov 2022 | Pal: Model Bahasa Bantuan Program | ICML 2023 |
| 13 Okt 2022 | Model Bahasa Kode adalah beberapa pelajar akal sehat | EMNLP 2022 |
Melibatkan pembusukan pertanyaan
| Waktu rilis pertama | Judul | Konferensi |
|---|
| 8 Des 2022 | Memungkiri permintaan yang berturut -turut untuk membusuk pertanyaan kompleks | EMNLP 2022 |
| 7 Okt 2022 | Mengukur dan mempersempit kesenjangan komposisi dalam model bahasa | EMNLP 2023 (Temuan) |
| 5 Okt 2022 | Dorongan terurai: pendekatan modular untuk menyelesaikan tugas yang kompleks | ICLR 2023 |
| 21 Mei 2022 | Permintaan yang paling tidak paling penting memungkinkan penalaran kompleks dalam model bahasa besar | ICLR 2023 |
| 19 Mei 2022 | Seleksi-Inferensi: Mengeksploitasi Model Bahasa Besar untuk Penalaran Logis yang Dapat Ditayangkan | ICLR 2023 |
| 15 Mei 2022 | Seqzero: parsing semantik komposisi beberapa-shot dengan prompt berurutan dan model nol-shot | Temuan NAACL 2022 |
Rekanan otomatis
| Waktu rilis pertama | Judul | Konferensi |
|---|
| 24 Feb 2023 | Augmentasi dan seleksi prompt otomatis dengan rantai-dipikirkan dari data berlabel | arxiv |
| 7 Okt 2022 | Rantai pemikiran otomatis yang diminta dalam model bahasa besar | Iclr 23 |
Mengapa Rekanan Bekerja? - Analisis COT
| Waktu rilis pertama | Judul | Konferensi |
|---|
| 20 Des 2022 | Menuju pemahaman rantai-pemikiran yang diminta: studi empiris tentang apa yang penting | ACL 2023 |
| 25 Nov 2022 | Penjelasan pelengkap untuk pembelajaran dalam konteks yang efektif | ACL 2023 (Temuan) |
| 3 Okt 2022 | Model bahasa adalah alasan serakah: analisis formal sistematis rantai pemikiran | ICLR 2023 |
| 16 Sep 2022 | Teks dan Pola: Untuk rantai pemikiran yang efektif, dibutuhkan dua untuk tango | Penelitian Google |
Evaluasi COT
Jenis Cot Lainnya
| Waktu rilis pertama | Nama | Judul | Konferensi |
|---|
| 28 Mei 2023 | Tab-cot | Tab-cot: rantai pemikiran tabular nol-shot | ACL 23 Temuan |
| 17 Mei 2023 | Pohon pikiran | Pohon Pikiran: Pemecahan masalah yang disengaja dengan model bahasa besar | arxiv |
| 9 Mei 2023 | Ingatan tentang pikiran | MOT: pra-pemikiran dan penarikan memungkinkan chatgpt untuk meningkatkan diri dengan memori-pemikiran | arxiv |
| 22 Nov 2022 | Program pemikiran | Program pemikiran yang diminta: Menghilangkan perhitungan dari penalaran untuk tugas penalaran numerik | arxiv |