awesome_deep_learning_interpretability
1.0.0
Makalah terkait pembelajaran mendalam tentang model penjelasan dalam beberapa tahun terakhir.
Urutkan Nomor Referensi
159 Makalah PDF (2 dari mereka perlu ditemukan di scihub) diunggah ke Tencent Weiyun.
Diperbarui dari waktu ke waktu.
| Tahun | Publikasi | Kertas | Kutipan | kode |
|---|---|---|---|---|
| 2020 | CVPR | Menjelaskan distilasi pengetahuan dengan mengukur pengetahuan | 81 | |
| 2020 | CVPR | Komponen frekuensi tinggi membantu menjelaskan generalisasi jaringan saraf konvolusional | 289 | |
| 2020 | CVPRW | SCORE-CAM: Penjelasan visual tertimbang skor untuk jaringan saraf konvolusional | 414 | Pytorch |
| 2020 | Iclr | Konsistensi pengetahuan antara jaringan saraf dan seterusnya | 28 | |
| 2020 | Iclr | Jaringan saraf bernilai kompleks yang dapat ditafsirkan untuk perlindungan privasi | dua puluh tiga | |
| 2019 | Ai | Penjelasan dalam Kecerdasan Artistik: Wawasan dari Ilmu Sosial | 3248 | |
| 2019 | NMI | Berhenti Menjelaskan Model Pembelajaran Mesin Kotak Hitam untuk Keputusan Tingkat Tinggi dan Gunakan Model Yang Dapat Ditafsirkan sebagai gantinya | 3505 | |
| 2019 | Neurips | Bisakah Anda mempercayai ketidakpastian model Anda? Mengevaluasi ketidakpastian prediktif di bawah pergeseran dataset | 1052 | - |
| 2019 | Neurips | Ini terlihat seperti itu: pembelajaran mendalam untuk pengenalan gambar yang dapat ditafsirkan | 665 | Pytorch |
| 2019 | Neurips | Benchmark untuk metode interpretasi dalam jaringan saraf yang dalam | 413 | |
| 2019 | Neurips | Representasi gradien penuh untuk visualisasi jaringan saraf | 155 | |
| 2019 | Neurips | Tentang kesetiaan (dalam) dan sensitivitas penjelasan | 226 | |
| 2019 | Neurips | Menuju Penjelasan Berbasis Konsep Otomatis | 342 | Tensorflow |
| 2019 | Neurips | Cxplain: Penjelasan kausal untuk interpretasi model di bawah ketidakpastian | 133 | |
| 2019 | CVPR | Menafsirkan CNNs melalui Pohon Keputusan | 293 | |
| 2019 | CVPR | Dari pengakuan hingga kognisi: Penalaran Visual Admonsense | 544 | Pytorch |
| 2019 | CVPR | Jaringan Cabang Perhatian: Belajar Mekanisme Perhatian untuk Penjelasan Visual | 371 | |
| 2019 | CVPR | Penjelasan visual yang dapat ditafsirkan dan berbutir halus untuk jaringan saraf konvolusional | 116 | |
| 2019 | CVPR | Belajar menjelaskan dengan contoh komplemental | 36 | |
| 2019 | CVPR | Mengungkapkan adegan dengan membalikkan struktur dari rekonstruksi gerak | 84 | Tensorflow |
| 2019 | CVPR | Penjelasan multimodal dengan memprediksi kontrafaktual dalam video | 26 | |
| 2019 | CVPR | Memvisualisasikan ketahanan interpretasi jaringan konvolusional yang mendalam | 2 | |
| 2019 | Iccv | U-CAM: Penjelasan Visual Menggunakan Peta Aktivasi Kelas Ketidakpastian | 61 | |
| 2019 | Iccv | Menuju pengakuan wajah yang dapat ditafsirkan | 66 | |
| 2019 | Iccv | Mengambil petunjuk: memanfaatkan penjelasan untuk membuat model visi dan bahasa lebih membumi | 163 | |
| 2019 | Iccv | Memahami jaringan yang dalam melalui gangguan ekstrem dan topeng halus | 276 | Pytorch |
| 2019 | Iccv | Menjelaskan jaringan saraf secara semantik dan kuantitatif | 49 | |
| 2019 | Iclr | Interpretasi hierarkis untuk prediksi jaringan saraf | 111 | Pytorch |
| 2019 | Iclr | Seberapa penting neuron? | 101 | |
| 2019 | Iclr | Penjelasan Visual dengan Interpretasi: Meningkatkan Kemampuan Umpan Balik Visual dari Jaringan Saraf Tinggi Dalam | 56 | |
| 2018 | ICML | Mengekstraksi Automata dari jaringan saraf berulang menggunakan kueri dan contoh tandingan | 169 | Pytorch |
| 2019 | ICML | Menuju pemahaman yang mendalam dan terpadu tentang model saraf dalam di NLP | 80 | Pytorch |
| 2019 | Icais | Menafsirkan Prediksi Kotak Hitam Menggunakan Kernel Fisher | 80 | |
| 2019 | ACMFAT | Menjelaskan penjelasan di AI | 558 | |
| 2019 | Aaai | Interpretasi jaringan sarafnya rapuh | 597 | Tensorflow |
| 2019 | Aaai | Ekstraksi peta arti-penting classifier-agnostik | dua puluh tiga | |
| 2019 | Aaai | Bisakah Anda menjelaskannya? Penjelasan yang jernih membantu pengambilan gambar kolaboratif manusia-AI | 11 | |
| 2019 | Aaaiw | Pembelajaran yang tidak diawasi dari jaringan saraf untuk menjelaskan jaringan saraf | 28 | |
| 2019 | Aaaiw | Transplantasi jaringan | 4 | |
| 2019 | CSUR | Survei metode untuk menjelaskan model kotak hitam | 3088 | |
| 2019 | Jvcir | Jaringan saraf konvolusional yang dapat ditafsirkan melalui desain feedforward | 134 | Keras |
| 2019 | Menjelaskan | Keandalan (un) reliabilitas metode air liur | 515 | |
| 2019 | ACL | Perhatian bukan penjelasan | 920 | |
| 2019 | EMNLP | Perhatian bukan penjelasan | 667 | |
| 2019 | arxiv | Interpretabilitas perhatian di seluruh tugas NLP | 129 | |
| 2019 | arxiv | CNN yang dapat ditafsirkan | 2 | |
| 2018 | Iclr | Menuju pemahaman yang lebih baik tentang metode atribut berbasis gradien untuk jaringan saraf yang dalam | 775 | |
| 2018 | Iclr | Mempelajari cara menjelaskan jaringan saraf: polaNet dan polaattribution | 342 | |
| 2018 | Iclr | Tentang pentingnya arah tunggal untuk generalisasi | 282 | Pytorch |
| 2018 | Iclr | Mendeteksi interaksi statistik dari bobot jaringan saraf | 148 | Pytorch |
| 2018 | Iclr | Penghitungan yang dapat ditafsirkan untuk menjawab pertanyaan visual | 55 | Pytorch |
| 2018 | CVPR | Jaringan saraf konvolusional yang dapat ditafsirkan | 677 | |
| 2018 | CVPR | Ceritakan ke mana harus mencari: Jaringan Inferensi Perhatian Terpandu | 454 | Chainer |
| 2018 | CVPR | Penjelasan Multimodal: Membenarkan Keputusan dan Menunjuk ke Bukti | 349 | Caffe |
| 2018 | CVPR | Transparansi dengan Desain: Tutup kesenjangan antara kinerja dan interpretasi dalam penalaran visual | 180 | Pytorch |
| 2018 | CVPR | Net2Vec: Mengukur dan menjelaskan bagaimana konsep dikodekan oleh filter dalam jaringan saraf dalam | 186 | |
| 2018 | CVPR | Apa yang telah kita pelajari dari representasi mendalam untuk pengakuan tindakan? | 52 | |
| 2018 | CVPR | Belajar bertindak dengan benar: memprediksi dan menjelaskan biaya dari gambar | 57 | |
| 2018 | CVPR | Mengajar kategori untuk pelajar manusia dengan penjelasan visual | 64 | Pytorch |
| 2018 | CVPR | Apa yang disukai jaringan dalam? | 36 | |
| 2018 | CVPR | Menafsirkan jaringan saraf dengan mengidentifikasi jalur perutean data yang kritis | 73 | Tensorflow |
| 2018 | ECCV | Clustering yang dalam untuk pembelajaran fitur visual tanpa pengawasan | 2056 | Pytorch |
| 2018 | ECCV | Komputasi saraf yang bisa dijelaskan melalui jaringan modul saraf stack | 164 | Tensorflow |
| 2018 | ECCV | Penjelasan visual landasan | 184 | |
| 2018 | ECCV | Penjelasan tekstual untuk kendaraan self-driving | 196 | |
| 2018 | ECCV | Dekomposisi dasar yang dapat ditafsirkan untuk penjelasan visual | 228 | Pytorch |
| 2018 | ECCV | Convnets dan ImageNet Beyond Accuracy: Memahami Kesalahan dan Mengungkap Bias | 147 | |
| 2018 | ECCV | VQA-E: Menjelaskan, menguraikan, dan meningkatkan jawaban Anda untuk pertanyaan visual | 71 | |
| 2018 | ECCV | Pilih Neuron Anda: Menggabungkan pengetahuan domain melalui neuron-penting | 41 | Pytorch |
| 2018 | ECCV | Visualisasi fitur yang beragam mengungkapkan invariansi di lapisan awal jaringan saraf dalam | dua puluh tiga | Tensorflow |
| 2018 | ECCV | Explaingan: Penjelasan Model melalui Transformasi Persilangan Batas Keputusan | 36 | |
| 2018 | ICML | Atribut Fitur Interpretability Beyond: Pengujian Kuantitatif dengan Vektor Aktivasi Konsep | 1130 | Tensorflow |
| 2018 | ICML | Belajar menjelaskan: Perspektif informasi-teori tentang interpretasi model | 421 | |
| 2018 | ACL | Apakah model memahami pertanyaannya? | 171 | Tensorflow |
| 2018 | Fitee | Interpretasi visual untuk pembelajaran mendalam: survei | 731 | |
| 2018 | Neurips | Cek kewarasan untuk peta air liur | 1353 | |
| 2018 | Neurips | Penjelasan berdasarkan yang hilang: Menuju penjelasan yang bertentangan dengan negatif terkait | 443 | Tensorflow |
| 2018 | Neurips | Menuju interpretasi yang kuat dengan jaringan saraf yang menjelaskan diri sendiri | 648 | Pytorch |
| 2018 | Neurips | Serangan memenuhi interpretabilitas: Deteksi atribut yang dikemudikan dari sampel permusuhan | 142 | |
| 2018 | Neurips | Deeppink: Seleksi fitur yang dapat direproduksi dalam jaringan saraf dalam | 125 | Keras |
| 2018 | Neurips | Pilihan Representer Point untuk menjelaskan jaringan saraf yang dalam | 182 | Tensorflow |
| 2018 | Lokakarya Neurips | Filter konvolusional yang dapat ditafsirkan dengan sincnet | 97 | |
| 2018 | Aaai | Jangkar: Penjelasan Model-Model Presisi Tinggi | 1517 | |
| 2018 | Aaai | Meningkatkan kekokohan dan interpretasi jaringan saraf dalam dengan mengatur gradien input mereka | 537 | Tensorflow |
| 2018 | Aaai | Pembelajaran mendalam untuk penalaran berbasis kasus melalui prototipe: jaringan saraf yang menjelaskan prediksi | 396 | Tensorflow |
| 2018 | Aaai | Menafsirkan pengetahuan CNN melalui grafik penjelas | 199 | Matlab |
| 2018 | Aaai | Memeriksa representasi CNN sehubungan dengan bias dataset | 88 | |
| 2018 | WACV | Grad-Cam ++: Penjelasan visual berbasis gradien umum untuk jaringan konvolusional yang dalam | 1459 | |
| 2018 | Ijcv | Perhatian saraf top-down dengan backprop eksitasi | 778 | |
| 2018 | Tpami | Menafsirkan representasi visual yang mendalam melalui diseksi jaringan | 252 | |
| 2018 | Dsp | Metode untuk menafsirkan dan memahami jaringan saraf yang dalam | 2046 | |
| 2018 | Mengakses | Mengintip di dalam kotak hitam: survei tentang kecerdasan buatan yang dapat dijelaskan (XAI) | 3110 | |
| 2018 | Jair | Belajar aturan penjelasan dari data bising | 440 | Tensorflow |
| 2018 | Mipro | Kecerdasan artistik yang bisa dijelaskan: survei | 794 | |
| 2018 | BMVC | Rise: Pengambilan Sampel Input Acak untuk Penjelasan Model Kotak Hitam | 657 | |
| 2018 | arxiv | Distill-and-Compare: Auditing Model Kotak Hitam Menggunakan Distilasi Model Transparan | 194 | |
| 2018 | arxiv | Memanipulasi dan mengukur interpretasi model | 496 | |
| 2018 | arxiv | Bagaimana Jaringan Saraf Konvolusional Melihat Dunia-Survei Metode Visualisasi Jaringan Saraf Konvolusional | 211 | |
| 2018 | arxiv | Meninjau kembali pentingnya unit individu dalam CNNs melalui ablasi | 93 | |
| 2018 | arxiv | Ukuran penting secara komputasi dari kepentingan neuron internal | 10 | |
| 2017 | ICML | Memahami prediksi kotak hitam melalui fungsi pengaruh | 2062 | Pytorch |
| 2017 | ICML | Atribut aksiomatik untuk jaringan yang dalam | 3654 | Keras |
| 2017 | ICML | Mempelajari fitur -fitur penting melalui penyebaran aktivasi yang berbeda | 2835 | |
| 2017 | Iclr | Memvisualisasikan keputusan jaringan saraf dalam: analisis perbedaan prediksi | 674 | Caffe |
| 2017 | Iclr | Menjelajahi banyak di jaringan saraf yang dalam | 34 | |
| 2017 | Neurips | Pendekatan terpadu untuk menafsirkan prediksi model | 11511 | |
| 2017 | Neurips | Parsis gambar waktu nyata untuk kelas kotak hitam | 483 | Pytorch |
| 2017 | Neurips | SVCCA: Analisis korelasi kanonik vektor tunggal untuk dinamika dan interpretabilitas pembelajaran yang mendalam | 473 | |
| 2017 | CVPR | Bagian Objek Menambang dari CNNs melalui Antara Pertanyaan Aktif | 29 | |
| 2017 | CVPR | Diseksi jaringan: mengukur interpretabilitas representasi visual yang dalam | 1254 | |
| 2017 | CVPR | Meningkatkan interpretabilitas jaringan saraf dalam dengan informasi semantik | 118 | |
| 2017 | CVPR | MDNET: jaringan diagnosis gambar medis yang dapat diinterpretasikan secara semantik dan visual | 307 | Obor |
| 2017 | CVPR | Membuat V dalam VQA Materi: Meninggikan Peran Pemahaman Gambar dalam Jawaban Pertanyaan Visual | 1686 | |
| 2017 | CVPR | Mengetahui kapan harus melihat: perhatian adaptif melalui sentinel visual untuk captioning gambar | 1392 | Obor |
| 2017 | CVPRW | Analisis tindakan manusia 3D yang dapat ditafsirkan dengan jaringan konvolusional temporal | 539 | |
| 2017 | Iccv | Grad-Cam: Penjelasan Visual dari Jaringan Dalam melalui Lokalisasi Berbasis Gradien | 13006 | Pytorch |
| 2017 | Iccv | Penjelasan yang dapat ditafsirkan tentang kotak hitam dengan gangguan yang bermakna | 1293 | Pytorch |
| 2017 | Iccv | Pembelajaran yang dapat ditafsirkan untuk mobil self-driving dengan memvisualisasikan perhatian kausal | 323 | |
| 2017 | Iccv | Memahami dan membandingkan jaringan saraf yang dalam untuk klasifikasi usia dan gender | 130 | |
| 2017 | Iccv | Belajar disambiguate dengan mengajukan pertanyaan diskriminatif | 26 | |
| 2017 | Ijcai | Benar untuk alasan yang tepat: melatih model yang dapat dibedakan dengan membatasi penjelasan mereka | 429 | |
| 2017 | Ijcai | Memahami dan Meningkatkan Jaringan Saraf Konvolusional melalui Unit Linier Dinyatakan Digabungkan | 510 | Caffe |
| 2017 | Aaai | Grafik bagian yang dapat ditafsirkan pada konvnets melalui pembelajaran multi-shot | 67 | Matlab |
| 2017 | ACL | Memvisualisasikan dan memahami terjemahan mesin saraf | 179 | |
| 2017 | EMNLP | Kerangka kerja kausal untuk menjelaskan prediksi model urutan-ke-urutan kotak hitam | 192 | |
| 2017 | Lokakarya CVPR | Melihat Di Bawah Tudung: Visualisasi Jaringan Saraf Dalam Untuk Menafsirkan Hasil Analisis Gambar Seluruh Slide untuk Poly Berwarna-warni | 47 | |
| 2017 | Survei | Interpretabilitas Model Pembelajaran Mendalam: Survei Hasil | 345 | |
| 2017 | arxiv | SmoothGrad: Menghapus kebisingan dengan menambahkan noise | 1479 | |
| 2017 | arxiv | Menaikar & Jelajahi Model Kotak Hitam | 259 | |
| 2017 | arxiv | Menyaring jaringan saraf menjadi pohon keputusan yang lembut | 520 | Pytorch |
| 2017 | arxiv | Menuju jaringan saraf dalam yang dapat ditafsirkan dengan memanfaatkan contoh permusuhan | 111 | |
| 2017 | arxiv | Kecerdasan artistik yang dapat dijelaskan: Memahami, memvisualisasikan dan menafsirkan model pembelajaran yang mendalam | 1279 | |
| 2017 | arxiv | Jaringan Penjelasan Kontekstual | 77 | Pytorch |
| 2017 | arxiv | Tantangan untuk transparansi | 142 | |
| 2017 | Acmsopp | DeepXplore: Pengujian Whitebox Otomatis dari Sistem Pembelajaran yang mendalam | 1144 | |
| 2017 | Ceurw | Apa arti AI yang bisa dijelaskan sebenarnya? Konseptualisasi perspektif baru | 518 | |
| 2017 | TVCG | Activis: Eksplorasi visual model jaringan saraf dalam skala industri | 346 | |
| 2016 | Neurips | Mensintesis input yang disukai untuk neuron dalam jaringan saraf melalui jaringan generator yang dalam | 659 | Caffe |
| 2016 | Neurips | Memahami bidang reseptif yang efektif dalam jaringan saraf konvolusional yang dalam | 1356 | |
| 2016 | CVPR | Membalikkan representasi visual dengan jaringan konvolusional | 626 | |
| 2016 | CVPR | Memvisualisasikan dan memahami representasi tekstur yang dalam | 147 | |
| 2016 | CVPR | Menganalisis pengklasifikasi: vektor fisher dan jaringan saraf dalam | 191 | |
| 2016 | ECCV | Menghasilkan Penjelasan Visual | 613 | Caffe |
| 2016 | ECCV | Desain kernel dalam jaringan saraf konvolusional untuk klasifikasi gambar | Dua Puluh Empat | |
| 2016 | ICML | Memahami dan Meningkatkan Jaringan Saraf Konvolusional melalui Unit Linier Dinyatakan Digabungkan | 510 | |
| 2016 | ICML | Memvisualisasikan dan membandingkan Alexnet dan VGG menggunakan lapisan dekonvolusional | 126 | |
| 2016 | EMNLP | Merasionalisasi prediksi saraf | 738 | Pytorch |
| 2016 | Ijcv | Memvisualisasikan jaringan saraf konvolusional yang dalam menggunakan pra-gambar alami | 508 | Matlab |
| 2016 | Ijcv | Memvisualisasikan fitur deteksi objek | 38 | Caffe |
| 2016 | KDD | Mengapa saya harus mempercayai Anda?: Menjelaskan prediksi classifier | 11742 | |
| 2016 | TVCG | Memvisualisasikan aktivitas tersembunyi dari jaringan saraf artistik | 309 | |
| 2016 | TVCG | Menuju analisis yang lebih baik dari jaringan saraf konvolusional yang dalam | 474 | |
| 2016 | Naacl | Memvisualisasikan dan memahami model saraf di NLP | 650 | Obor |
| 2016 | arxiv | Memahami Jaringan Saraf melalui Penghapusan Representasi) | 492 | |
| 2016 | arxiv | Grad-Cam: Mengapa Anda mengatakan itu? | 398 | |
| 2016 | arxiv | Menginvestasikan pengaruh kebisingan dan pengalih perhatian pada interpretasi jaringan saraf | 108 | |
| 2016 | arxiv | Penjelasan yang penuh perhatian: Membenarkan keputusan dan menunjuk ke bukti | 88 | |
| 2016 | arxiv | Mitos interpretabilitas model | 3786 | |
| 2016 | arxiv | Visualisasi fitur multifaset: mengungkap berbagai jenis fitur yang dipelajari oleh setiap neuron dalam jaringan saraf dalam | 317 | |
| 2015 | Iclr | Berjuang untuk kesederhanaan: semua konvolusional net | 4645 | Pytorch |
| 2015 | CVPR | Memahami representasi gambar yang dalam dengan membalikkannya | 1942 | Matlab |
| 2015 | Iccv | Memahami fitur mendalam dengan citra yang dihasilkan komputer | 156 | Caffe |
| 2015 | Lokakarya ICML | Memahami jaringan saraf melalui visualisasi yang mendalam | 2038 | Tensorflow |
| 2015 | AAS | Kelas yang dapat ditafsirkan menggunakan aturan dan analisis Bayesian: Membangun model prediksi stroke yang lebih baik | 749 | |
| 2014 | ECCV | Memvisualisasikan dan memahami jaringan konvolusional | 18604 | Pytorch |
| 2014 | Iclr | Jaringan Convolutional Jauh Dalam: Memvisualisasikan Model Klasifikasi Gambar dan Peta Salivasi | 6142 | Pytorch |
| 2013 | Iccv | Hoggles: memvisualisasikan fitur deteksi objek | 352 |