PromptKG Family: Galeri Prompt Learning & KG terkait penelitian, toolkit, dan daftar kertas.
| Direktori | Keterangan |
|---|
| riset | • Kumpulan implementasi model penelitian terkait pembelajaran yang cepat |
| Lambdakg | • Perpustakaan untuk Embeddings dan Aplikasi KG berbasis PLM |
| Deltakg | • Perpustakaan untuk mengedit embeddings KG berbasis PLM secara dinamis |
| Tutorial-notebook | • Buku catatan tutorial untuk pemula |
Daftar isi
- Tutorial
- Survei
- Dokumen
- Pengetahuan sebagai cepat
- 1. Pemahaman Bahasa
- 2. Multimodal
- 3. Tugas Lanjutan
- Prompt (PLMS) untuk pengetahuan
- 1. Pengetahuan menyelidik
- 2. Embedding Grafik Pengetahuan
- 3. Analisis
- Informasi kontak
Tutorial
- Nlp nol dan beberapa-shot dengan model bahasa pretrained. Tutorial AACL 2022 [PPT]
- Konstruksi grafik pengetahuan yang efisien data. Tutorial CCKS2022 [PPT]
- Konstruksi grafik pengetahuan yang efisien dan Robuts. Tutorial AACL-IJCNLP [PPT]
- Pengetahuan menginformasikan pembelajaran yang cepat. MLNLP 2022 Tutorial (Cina) [PPT]
Survei
- Tuning Delta: Studi Komprehensif Metode Efisien Parameter untuk Model Bahasa Pra-Terlatih (pada ARXIV 2021) [Kertas]
- Pra-pelatihan, prompt, dan prediksi: Survei sistematis tentang metode yang diminta dalam pemrosesan bahasa alami (ACM Computing Surveys 2021) [kertas]
- Pra-pelatihan yang direstrukturisasi (pada ARXIV 2022) [kertas]
- Survei NLP intensif pengetahuan dengan model bahasa pra-terlatih (pada ARXIV 2022) [kertas]
- Survei model bahasa pra-terlatih yang ditingkatkan pengetahuan (pada ARXIV 2022) [kertas]
- Ulasan tentang model bahasa sebagai basis pengetahuan (pada arxiv 2022) [kertas]
- Konstruksi Grafik Pengetahuan Generatif: Tinjauan (EMNLP, 2022) [Kertas]
- Penalaran dengan Model Bahasa yang Didorong: Survei (di Arxiv 2022) [Kertas]
- Penalaran atas berbagai jenis grafik pengetahuan: statis, temporal dan multi-modal (pada arxiv 2022) [kertas]
- Siklus Hidup Pengetahuan dalam Model Bahasa Besar: Sebuah Survei (di Arxiv 2022) [Kertas]
- Menyatukan model bahasa besar dan grafik pengetahuan: peta jalan (pada arxiv 2023) [kertas]
Dokumen
Pengetahuan sebagai cepat
Pemahaman bahasa
- Generasi Pengambilan-Agung untuk Tugas NLP Intensif Pengetahuan, dalam Neurips 2020. [PDF]
- REALM: Model Bahasa-Pengambilan Pra-Pelatihan Pra-Pelatihan, di ICML 2020. [PDF]
- Membuat model bahasa pra-terlatih lebih baik beberapa pelajar, di ACL 2022. [PDF]
- PTR: penyetelan cepat dengan aturan untuk klasifikasi teks, di openai 2022. [PDF]
- Label verbalisasi dan usaha untuk ekstraksi hubungan nol dan beberapa-shot yang efektif, dalam EMNLP 2021. [PDF]
- RelasiPrompt: Memanfaatkan petunjuk untuk menghasilkan data sintetis untuk ekstraksi triplet relasi nol-shot, dalam EMNLP 2022 (temuan). [PDF]
- Tuning prompt yang berpengetahuan: memasukkan pengetahuan ke verbalizer cepat untuk klasifikasi teks, dalam ACL 2022. [PDF]
- PPT: Tuning prompt pra-terlatih untuk pembelajaran beberapa shot, dalam ACL 2022. [PDF]
- Tuning demonstrasi kontras untuk model bahasa pra-terlatih, dalam EMNLP 2022 (temuan). [PDF]
- Adaprompt: Pelatihan model adaptif untuk NLP berbasis prompt, di ARXIV 2022. [PDF]
- KnowPrompt: Pengetahuan-sadar-tuning dengan optimasi sinergis untuk ekstraksi hubungan, dalam www 2022. [PDF]
- Referensi SKEMA-Sehat sebagai Prompt Meningkatkan Konstruksi Grafik Pengetahuan Hemat Data, di Sigir 2023. [PDF]
- Pengetahuan Decoupling dari Hafalan: Pembelajaran cepat pengambilan, dalam Neurips 2022. [PDF]
- Ekstraksi relasi sebagai pemeriksaan buku terbuka: penyetelan cepat yang ditingkatkan, di Sigir 2022. [PDF]
- Lightner: Paradigma tuning yang ringan untuk ner rendah sumber daya melalui dorongan pluggable, di Coling 2022. [PDF]
- Generasi Struktur Terpadu untuk Ekstraksi Informasi Universal, dalam ACL 2022. [PDF]
- LASUIE: Ekstraksi Informasi Menyatuan dengan Model Bahasa Generatif Laten Adaptif-Sehat Generatif, dalam Neurips 2022. [PDF]
- Atlas: Pembelajaran beberapa shot dengan pengambilan model bahasa augmented, dalam arxiv 2022. [PDF]
- Jangan minta, cari! Pembelajaran Zero-Shot Berbasis Pertambangan dengan Model Bahasa, dalam ACL 2022. [PDF]
- Pengetahuan yang diminta dalam model bahasa pra-terlatih untuk pemahaman bahasa alami, dalam EMNLP 2022. [PDF]
- PROPOK PROPOK PROMPT UNIFED UNTUK DIALOG LAYANAN PELANGGAN, DI CIKM 2022. [PDF]
- Pengetahuan yang diminta dalam model bahasa pra-terlatih untuk pemahaman bahasa alami, dalam EMNLP 2022. [PDF]
- Mandiri Mandiri: Model Bahasa Menyelaraskan dengan Instruksi yang Dibuat sendiri, dalam ArXIV 2022. [PDF]
- Satu embedder, tugas apa pun: embeddings teks yang diselesaikan dengan instruksi, dalam arxiv 2022. [PDF]
- Belajar mengambil permintaan untuk pembelajaran dalam konteks, dalam NAACL 2022. [PDF]
- Data pelatihan lebih berharga dari yang Anda pikirkan: metode yang sederhana dan efektif dengan mengambil dari data pelatihan, di ACL 2022. [PDF]
- Salah satu model untuk semua domain: tuning domain-prefix kolaboratif untuk ner lintas domain, di ARXIV 2023. [PDF]
- REPLUG: Model Bahasa Kotak Hitam Retrieval-Agusted, dalam ARXIV 2023. [PDF]
- Model Bahasa Pengeluaran-Pengetahuan Meminta untuk menjawab pertanyaan grafik pengetahuan nol-tembakan, dalam Arxiv 2023. [PDF]
Multimodal
- Bimbingan visual yang baik membuat ekstraktor yang lebih baik: awalan visual hierarkis untuk entitas multimodal dan ekstraksi relasi, dalam NAACL 2022 (temuan). [PDF]
- Visual Prompt Tuning, di ECCV 2022. [PDF]
- CPT: Tuning Prompt Berwarna-warni untuk Model Bahasa Visi Pra-Terlatih, di EMNLP 2022. [PDF]
- Belajar Minta untuk Model Bahasa Visi, di IJCV 2022. [PDF]
- Penyetelan cepat test-time untuk generalisasi nol-shot dalam model penglihatan-bahasa, di Neurips 2022. [PDF]
Tugas lanjutan
- Rekomendasi sebagai Pemrosesan Bahasa (RLP): pretrain terpadu, prompt yang dipersonalisasi & prediksi paradigma (P5), dalam ACM Recsys 2022. [PDF]
- Menuju Sistem Rekomendasi Conversational Terpadu melalui Pembelajaran Prompt yang Ditingkatkan Pengetahuan, dalam KDD 2022. [PDF]
- Promptem: Tuning prompt untuk pencocokan entitas umum yang beralasan rendah, di VLDB 2023. [PDF]
- VIMA: Manipulasi robot umum dengan petunjuk multimodal, di ARXIV 2022. [PDF]
- Model bahasa retrosintesis unbutering dengan dorongan pemutusan, dalam Arxiv 2022. [PDF]
- ProgPrompt: Menghasilkan rencana tugas robot yang terletak menggunakan model bahasa besar, di ARXIV 2022. [PDF]
- Berkolaborasi dengan model bahasa untuk penalaran yang diwujudkan, dalam lokakarya Neurips 2022 Larel. [PDF]
Prompt (PLMS) untuk pengetahuan
Penyelidikan pengetahuan
- Berapa banyak pengetahuan yang dapat Anda kemas ke dalam parameter model bahasa? di EMNLP 2020. [PDF]
- Model bahasa sebagai basis pengetahuan? Dalam EMNLP 2019. [PDF]
- Basis pengetahuan terwujud dari Transformers Advonsense, dalam CSRR 2022. [PDF]
- Model bahasa yang sadar waktu sebagai basis pengetahuan temporal, di TACL2022. [PDF]
- Dapatkah model bahasa pra-terlatih generatif berfungsi sebagai basis pengetahuan untuk QA buku tertutup? di ACL2021. [PDF]
- Model bahasa sebagai basis pengetahuan: Representasi entitas, kapasitas penyimpanan, dan pertanyaan parafrase, di EACL2021. [PDF]
- Model Bahasa Ilmiah untuk Penyelesaian Basis Pengetahuan Biomedis: Sebuah Studi Empiris, dalam AKBC 2021. [PDF]
- Lama multibahasa: Investigasi pengetahuan dalam model bahasa pretrained multibahasa, di EACL2021. [PDF]
- Bagaimana kita bisa tahu model bahasa apa yang tahu? di TACL 2020. [PDF]
- Bagaimana konteks mempengaruhi prediksi faktual model bahasa, dalam AKBC 2020. [PDF]
- Copen: Probing Conceptual Belly dalam Model Bahasa Pra-Terlatih, dalam EMNLP 2022. [PDF]
- PENGEMBALIAN PENGETAHUAN SIMILE DARI MODEL BAHASA PRE-LOBUS, DI ACL 2022. [PDF]
Embedding grafik pengetahuan (kami menyediakan perpustakaan dan benchmark lambdakg)
- KG-BERT: Bert untuk penyelesaian grafik pengetahuan, di ARXIV 2020. [PDF]
- Pembelajaran multi-tugas untuk penyelesaian grafik pengetahuan dengan model bahasa pra-terlatih , di Coling 2020. [PDF]
- Pembelajaran Representasi Teks-Teks Struktur untuk Penyelesaian Grafik Pengetahuan yang Efisien, di www 2021. [PDF]
- Kepler: Model Terpadu untuk Penanaman Pengetahuan dan Representasi Bahasa Pra-Terlatih, TACL 2021 [PDF]
- Statik: Struktur dan teks untuk grafik pengetahuan induktif, dalam NAACL 2022. [PDF]
- Bahasa bersama semantik dan menempel struktur untuk penyelesaian grafik pengetahuan, di Coling. [PDF]
- Pengetahuan itu datar: Kerangka generatif SEQ2SEQ untuk berbagai penyelesaian grafik pengetahuan, di Coling. [PDF]
- Apakah model pra-terlatih menguntungkan penyelesaian grafik pengetahuan? Evaluasi yang andal dan pendekatan yang masuk akal, dalam ACL 2022. [PDF]
- Model Bahasa sebagai Embeddings Pengetahuan, di IJCAI 2022. [PDF]
- Dari diskriminasi ke generasi: penyelesaian grafik pengetahuan dengan transformator generatif, dalam www 2022. [PDF]
- Penalaran Melalui Hafalan: Embeddings Grafik Pengetahuan Tetangga terdekat, dalam Arxiv 2022. [PDF]
- SimKGC: Penyelesaian grafik pengetahuan kontras sederhana dengan model bahasa pra-terlatih, dalam ACL 2022. [PDF]
- Penyelesaian Grafik Urutan Urutan untuk Penyelesaian dan PERTANYAAN PERTANYAAN, dalam ACL 2022. [PDF]
- LP-BERT: Grafik pengetahuan pra-pelatihan multi-tugas Bert untuk prediksi tautan, dalam ARXIV 2022. [PDF]
- Topeng dan Alasan: Transformator Grafik Pengetahuan Pra-Pelatihan untuk Kueri Logis yang Kompleks, dalam KDD 2022. [PDF]
- Pengetahuan itu datar: Kerangka generatif SEQ2SEQ untuk berbagai penyelesaian grafik pengetahuan, dalam Coling 2022. [PDF]
Analisa
- Tebakan yang berpengetahuan atau terdidik? Meninjau kembali model bahasa sebagai basis pengetahuan, dalam ACL 2021. [PDF]
- Dapatkah model bahasa pretrained probe promput? Memahami risiko yang tidak terlihat dari pandangan kausal, di ACL 2022. [PDF]
- Bagaimana model bahasa pra-terlatih menangkap pengetahuan faktual? Analisis yang terinspirasi kausal, dalam ACL 2022. [PDF]
- Kemampuan Muncul dari Model Bahasa Besar, di ARXIV 2022. [PDF]
- Neuron Pengetahuan dalam Transformer Pretrained, dalam ACL 2022. [PDF]
- Menemukan Neuron Keterampilan dalam Model Bahasa Berbasis Transformator Pra-Terlatih, dalam EMNLP 2022. [PDF]
- Apakah permintaan menyelesaikan tugas NLP menggunakan bahasa alami? Dalam ARXIV 2022. [PDF]
- Memikirkan kembali peran demonstrasi: Apa yang membuat pembelajaran dalam konteks bekerja? di EMNLP 2022. [PDF]
- Apakah model berbasis prompt benar-benar memahami arti dari petunjuknya? Dalam NAACL 2022. [PDF]
- Ketika tidak mempercayai model bahasa: menyelidiki efektivitas dan keterbatasan ingatan parametrik dan non-parametrik, dalam ARXIV 2022. [PDF]
- Mengapa GPT dapat belajar dalam konteks? Model bahasa secara diam-diam melakukan keturunan gradien sebagai meta-optimizers , di ARXIV 2022. [PDF]
- Prompt yang dipesan secara fantastis dan di mana menemukannya: Mengatasi sensitivitas pesanan cepat beberapa tembakan, di ACL 2022. [PDF]
- Mengedit Model Bahasa Besar: Masalah, Metode, dan Peluang, di ARXIV 2023. [PDF]
Informasi kontak
Untuk bantuan atau masalah menggunakan onstits, silakan kirimkan masalah github.