awesome_deep_learning_interpretability
1.0.0
Deep Learning Related Papers on Model Erklärend in den letzten Jahren.
Sortieren Sie nach Referenznummer
159 Papiere PDF (2 von ihnen müssen auf Scihub gefunden werden) wurden auf Tencent Weiyun hochgeladen.
Von Zeit zu Zeit aktualisiert.
| Jahr | Veröffentlichung | Papier | Zitat | Code |
|---|---|---|---|---|
| 2020 | CVPR | Erklären der Wissensdestillation durch Quantifizierung des Wissens | 81 | |
| 2020 | CVPR | Hochfrequenzkomponente erläutert die Verallgemeinerung von Faltungsnetzwerken mit Faltungsstücken | 289 | |
| 2020 | Cvprw | Score-CAM: Score-Gewicht visuelle Erklärungen für Faltungsnetzwerke für Faltungsstücken | 414 | Pytorch |
| 2020 | ICLR | Wissenskonsistenz zwischen neuronalen Netzwerken und darüber hinaus | 28 | |
| 2020 | ICLR | Interpretierbare komplex bewertete neuronale Netze für den Schutz des Datenschutzes | Dreiundzwanzig | |
| 2019 | Ai | Erklärung in der künstlerischen Intelligenz: Erkenntnisse aus den Sozialwissenschaften | 3248 | |
| 2019 | NMI | Beenden Sie die Erklärung von Black Box -Modellen für maschinelle Lernmodelle für Entscheidungen mit hohem Einsatz und verwenden Sie stattdessen interpretierbare Modelle | 3505 | |
| 2019 | Neurips | Können Sie der Unsicherheit Ihres Modells vertrauen? Bewertung der prädiktiven Unsicherheit unter Datensatzverschiebung | 1052 | - - |
| 2019 | Neurips | Dies sieht so aus: tiefes Lernen für interpretierbare Bilderkennung | 665 | Pytorch |
| 2019 | Neurips | Ein Maßstab für Interpretationsmethoden in tiefen neuronalen Netzwerken | 413 | |
| 2019 | Neurips | Vollgradient Darstellung für die Visualisierung des neuronalen Netzwerks | 155 | |
| 2019 | Neurips | Auf der (in) Treue und Empfindlichkeit von Erklärungen | 226 | |
| 2019 | Neurips | Auf automatisch konzeptbasierte Erklärungen | 342 | Tensorflow |
| 2019 | Neurips | CXPLAIN: Kausale Erklärungen für die Modellinterpretation unter Unsicherheit | 133 | |
| 2019 | CVPR | Interpretation von CNNs über Entscheidungsbäume | 293 | |
| 2019 | CVPR | Von der Erkennung bis zur Erkenntnis: Visual Commonsense Begründung | 544 | Pytorch |
| 2019 | CVPR | Aufmerksamkeitszweignetzwerk: Lernen des Aufmerksamkeitsmechanismus für visuelle Erklärung | 371 | |
| 2019 | CVPR | Interpretierbare und feinkörnige visuelle Erklärungen für Faltungsnetze | 116 | |
| 2019 | CVPR | Erklären lernen mit ergänzenden Beispielen | 36 | |
| 2019 | CVPR | Aufdecken von Szenen durch Inverting der Struktur aus Bewegungsrekonstruktionen | 84 | Tensorflow |
| 2019 | CVPR | Multimodale Erklärungen durch Vorhersage der Kontrafaktualität in Videos | 26 | |
| 2019 | CVPR | Visualisierung der Widerstandsfähigkeit der tiefen Faltungsnetzwerk -Interpretationen | 2 | |
| 2019 | ICCV | U-CAM: Visuelle Erklärung unter Verwendung von Unsicherheitsbasis-Klassenaktivierungskarten | 61 | |
| 2019 | ICCV | In Richtung interpretierbarer Gesichtserkennung | 66 | |
| 2019 | ICCV | Angreifen | 163 | |
| 2019 | ICCV | Tiefe Netzwerke über extreme Störungen und glatte Masken verstehen | 276 | Pytorch |
| 2019 | ICCV | Semantisch und quantitativ erklären | 49 | |
| 2019 | ICLR | Hierarchische Interpretationen für neuronale Netzvorhersagen | 111 | Pytorch |
| 2019 | ICLR | Wie wichtig ist ein Neuron? | 101 | |
| 2019 | ICLR | Visuelle Erklärung durch Interpretation: Verbesserung der visuellen Feedback -Funktionen von tiefen neuronalen Netzwerken | 56 | |
| 2018 | ICML | Extrahieren von Automaten aus wiederkehrenden neuronalen Netzwerken mit Abfragen und Gegenbeispielen | 169 | Pytorch |
| 2019 | ICML | Auf ein tiefes und einheitliches Verständnis von tiefen Neuralmodellen in NLP | 80 | Pytorch |
| 2019 | Icais | Interpretation von Black Box -Vorhersagen mit Fisher -Kerneln | 80 | |
| 2019 | ACMFAT | Erklärungen in KI erklären | 558 | |
| 2019 | Aaai | Die Interpretation neuronaler Netzwerke ist fragil | 597 | Tensorflow |
| 2019 | Aaai | Kartenextraktion der Klassifikator-Agnostic-Salience | Dreiundzwanzig | |
| 2019 | Aaai | Kannst du das erklären? Kluge Erklärungen helfen beim Abrufen von Human-AI-Kollaborationsbild | 11 | |
| 2019 | Aaaiw | Unbeaufsichtigtes Erlernen neuronaler Netze zur Erklärung neuronaler Netze | 28 | |
| 2019 | Aaaiw | Netzwerktransplantation | 4 | |
| 2019 | CSUR | Eine Übersicht über Methoden zur Erklärung von Black Box -Modellen | 3088 | |
| 2019 | JVCIR | Interpretierbare Faltungsnetzwerke durch Feedforward Design | 134 | Keras |
| 2019 | Erklären | Die (UN) Zuverlässigkeit von Salivitätsmethoden | 515 | |
| 2019 | ACL | Aufmerksamkeit ist keine Erklärung | 920 | |
| 2019 | EMNLP | Aufmerksamkeit ist keine Erklärung nicht | 667 | |
| 2019 | Arxiv | Aufmerksamkeitsdolmetscher bei NLP -Aufgaben | 129 | |
| 2019 | Arxiv | Interpretierbare CNNs | 2 | |
| 2018 | ICLR | Um besseres Verständnis von Gradienten-basierten Attributmethoden für tiefe neuronale Netzwerke zu verstehen | 775 | |
| 2018 | ICLR | Lernen, wie man neuronale Netzwerke erklärt: Musternet und MusterAttribution | 342 | |
| 2018 | ICLR | Über die Bedeutung einzelner Richtungen für die Verallgemeinerung | 282 | Pytorch |
| 2018 | ICLR | Erkennung statistischer Wechselwirkungen aus neuronalen Netzwerkgewichten | 148 | Pytorch |
| 2018 | ICLR | Interpretierbares Zählen für visuelle Frage Beantwortung | 55 | Pytorch |
| 2018 | CVPR | Interpretierbare Faltungsnetze | 677 | |
| 2018 | CVPR | Sagen Sie mir, wo ich schauen soll: Guide Aufmerksamkeitsschließung Netzwerk | 454 | Kette |
| 2018 | CVPR | Multimodale Erklärungen: Entscheidungen rechtfertigen und auf die Beweise hinweisen | 349 | Kaffe |
| 2018 | CVPR | Transparenz durch Design: Schließen Sie die Lücke zwischen Leistung und Interpretation im visuellen Denken | 180 | Pytorch |
| 2018 | CVPR | Net2VEC: Quantifizierung und Erklärung, wie Konzepte von Filtern in tiefen neuronalen Netzwerken codiert werden | 186 | |
| 2018 | CVPR | Was haben wir aus tiefen Darstellungen für die Aktionserkennung gelernt? | 52 | |
| 2018 | CVPR | Richtig zu handeln lernen: Vorhersagen und Erklären von Bildern vorhersagen und erklären | 57 | |
| 2018 | CVPR | Lehren von Kategorien menschlichen Lernenden mit visuellen Erklärungen | 64 | Pytorch |
| 2018 | CVPR | Was sehen tiefe Netzwerke gerne? | 36 | |
| 2018 | CVPR | Interpretieren Sie neuronale Netze, indem Sie kritische Datenrouting -Pfade identifizieren | 73 | Tensorflow |
| 2018 | ECCV | Tiefes Clustering für unbeaufsichtigtes Lernen von visuellen Merkmalen | 2056 | Pytorch |
| 2018 | ECCV | Erklärbares neuronales Computing über Stack Neural Modul -Netzwerke | 164 | Tensorflow |
| 2018 | ECCV | Bildende visuelle Erklärungen | 184 | |
| 2018 | ECCV | Text Erklärungen für selbstfahrende Fahrzeuge | 196 | |
| 2018 | ECCV | Interpretierbare Basisabzug für visuelle Erklärung | 228 | Pytorch |
| 2018 | ECCV | Überzeugen und Imagnet jenseits der Genauigkeit: Fehler verstehen und Vorurteile aufdecken | 147 | |
| 2018 | ECCV | VQA-E: Erklären, Ausarbeiten und Verbesserung Ihrer Antworten auf visuelle Fragen | 71 | |
| 2018 | ECCV | Wählen Sie Ihr Neuron: Domänenwissen durch Neuron-Importanz einbeziehen | 41 | Pytorch |
| 2018 | ECCV | Verschiedene Merkmalsvisualisierungen enthüllen Invarianzen in frühen Schichten von tiefen neuronalen Netzwerken | Dreiundzwanzig | Tensorflow |
| 2018 | ECCV | Explaingan: Modell Erklärung durch Entscheidungsgrenzenübergangstransformationen | 36 | |
| 2018 | ICML | Interpretierbarkeit über das Merkmalsattribut hinaus: Quantitative Tests mit Konzeptaktivierungsvektoren | 1130 | Tensorflow |
| 2018 | ICML | Erklären lernen: Eine Informations-theoretische Perspektive auf die Modellinterpretation | 421 | |
| 2018 | ACL | Hat das Modell die Frage verstanden? | 171 | Tensorflow |
| 2018 | Fitee | Visuelle Interpretation für Deep Learning: Eine Umfrage | 731 | |
| 2018 | Neurips | Vernunftprüfungen auf Speichelkarten | 1353 | |
| 2018 | Neurips | Erklärungen basierend auf dem fehlenden: Auf dem Weg zu entgegengesetzten Erklärungen mit relevanten Negativen | 443 | Tensorflow |
| 2018 | Neurips | Auf eine robuste Interpretation mit selbsterklären neuronalen Netzwerken | 648 | Pytorch |
| 2018 | Neurips | Angriffe treffen die Interpretierbarkeit: Attribut-getötete Erkennung von kontroversen Proben | 142 | |
| 2018 | Neurips | Deeppink: Auswahl der reproduzierbaren Merkmale in tiefen neuronalen Netzwerken | 125 | Keras |
| 2018 | Neurips | Vertreterinspunktauswahl zur Erklärung von tiefen neuronalen Netzwerken | 182 | Tensorflow |
| 2018 | Neurips Workshop | Interpretierbare Faltungsfilter mit Sincnet | 97 | |
| 2018 | Aaai | Anker: hochpräzisen Modell-agnostische Erklärungen | 1517 | |
| 2018 | Aaai | Verbesserung der kontroversen Robustheit und Interpretation von tiefen neuronalen Netzwerken durch Regularisierung ihrer Input -Gradienten | 537 | Tensorflow |
| 2018 | Aaai | Deep Learning für fallbasierte Argumentation durch Prototypen: ein neuronales Netzwerk, das seine Vorhersagen erklärt | 396 | Tensorflow |
| 2018 | Aaai | Interpretieren von CNN -Wissen über ein erklärendes Diagramm | 199 | Matlab |
| 2018 | Aaai | Untersuchung von CNN -Darstellungen in Bezug auf die Datensatzverzerrung | 88 | |
| 2018 | WACV | Grad-CAM ++: Verallgemeinerte visuelle Erklärungen für gradientenbasierte für tiefe Faltungsnetzwerke | 1459 | |
| 2018 | Ijcv | Top-down-neuronale Aufmerksamkeit durch Erregung Rücklauf | 778 | |
| 2018 | Tpami | Interpretation von tiefen visuellen Darstellungen durch Netzwerkdissektion | 252 | |
| 2018 | DSP | Methoden zum Interpretieren und Verständnis von tiefen neuronalen Netzwerken | 2046 | |
| 2018 | Zugang | Peeking in die Black-Box: Eine Umfrage zur erklärbaren künstlichen Intelligenz (XAI) | 3110 | |
| 2018 | Jair | Erklärungsregeln aus lauten Daten lernen | 440 | Tensorflow |
| 2018 | Mipro | Erklärbare künstlerische Intelligenz: Eine Umfrage | 794 | |
| 2018 | BMVC | Aufstieg: Randomisierte Eingangsabtastung zur Erläuterung von Black-Box-Modellen | 657 | |
| 2018 | Arxiv | Destill-and-Compare: Überprüfung von Black-Box-Modellen unter Verwendung einer transparenten Modelldestillation | 194 | |
| 2018 | Arxiv | Modellinterpretation manipulieren und messen | 496 | |
| 2018 | Arxiv | Wie Faltungsnetzwerk die weltweite Übersicht über die Visualisierungsmethoden der visuellen Netzwerk-Netzwerke finden | 211 | |
| 2018 | Arxiv | Überprüfung der Bedeutung einzelner Einheiten in CNNs über Ablation | 93 | |
| 2018 | Arxiv | Rechnerische effiziente Messungen für interne Neuronen Bedeutung | 10 | |
| 2017 | ICML | Verständnis von Black-Box-Vorhersagen über Einflussfunktionen | 2062 | Pytorch |
| 2017 | ICML | Axiomatisches Attribut für tiefe Netzwerke | 3654 | Keras |
| 2017 | ICML | Lernen wichtiger Merkmale durch verbreitete Aktivierung Unterschiedsunterschied | 2835 | |
| 2017 | ICLR | Visualisieren von tiefen Entscheidungen für neuronale Netze: Vorhersagedifferenzanalyse | 674 | Kaffe |
| 2017 | ICLR | Erforschen vieler in tiefen neuronalen Netzwerken | 34 | |
| 2017 | Neurips | Ein einheitlicher Ansatz zur Interpretation von Modellvorhersagen | 11511 | |
| 2017 | Neurips | Echtzeit -Bildnahrungsmittel für Black Box -Klassen | 483 | Pytorch |
| 2017 | Neurips | SVCCA: Singular Vector Canonical Correlationsanalyse für Deep -Lerndynamik und Interpretierbarkeit | 473 | |
| 2017 | CVPR | Bergbauobjektteile von CNNs über aktive Frage-Beantwortung | 29 | |
| 2017 | CVPR | Netzwerksektion: Quantifizierung der Interpretierbarkeit tiefer visueller Darstellungen | 1254 | |
| 2017 | CVPR | Verbesserung der Interpretierbarkeit von tiefen neuronalen Netzwerken mit semantischen Informationen | 118 | |
| 2017 | CVPR | MDNET: Ein semantisches und visuell interpretierbares Netzwerk für medizinische Bilddiagnose | 307 | Fackel |
| 2017 | CVPR | Machen Sie das V in VQA wichtig: Steigern Sie die Rolle des Bildverständnisse | 1686 | |
| 2017 | CVPR | Wissen, wann man aussehen soll: Anpassungsfähige Aufmerksamkeit über einen visuellen Sentinel für Bildunterschriften | 1392 | Fackel |
| 2017 | Cvprw | Interpretierbare 3D -Analyse menschlicher Aktion mit zeitlichen Faltungsnetzwerken | 539 | |
| 2017 | ICCV | Grad-CAM: Visuelle Erklärungen aus tiefen Netzwerken durch Gradienten-basierte Lokalisierung | 13006 | Pytorch |
| 2017 | ICCV | Interpretierbare Erklärungen von schwarzen Kisten durch sinnvolle Störung | 1293 | Pytorch |
| 2017 | ICCV | Interpretierbares Lernen für selbstfahrende Autos durch Visualisierung der kausalen Aufmerksamkeit | 323 | |
| 2017 | ICCV | Tiefe neuronale Netzwerke für Alter und Geschlechtsklassifizierung verstehen und vergleichen | 130 | |
| 2017 | ICCV | Lernen, durch diskriminative Fragen zu disambiguieren | 26 | |
| 2017 | Ijcai | Richtig aus den richtigen Gründen: Schulung differenzierbarer Modelle, indem sie ihre Erklärungen einschränken | 429 | |
| 2017 | Ijcai | Verständnis und Verbesserung von Faltungsnetzwerken über verkettete korrigierte lineare Einheiten verstehen und verbessert | 510 | Kaffe |
| 2017 | Aaai | Wachsende interpretierbare Teildiagramme zu Überzeugungsnutzungen durch Multi-Shot-Lernen | 67 | Matlab |
| 2017 | ACL | Visualisierung und Verständnis der neuronalen Maschinenübersetzung | 179 | |
| 2017 | EMNLP | Ein Ursachenrahmen zur Erklärung der Vorhersagen von Black-Box-Sequenz-zu-Sequenz-Modellen | 192 | |
| 2017 | CVPR -Workshop | Blick unter die Motorhaube: Tiefe visuelle Netzwerk-Netzwerk-Visualisierung, um die Ergebnisse der gesamten Slide-Bildanalyse für farbenfrohe Polys zu interpretieren | 47 | |
| 2017 | Umfrage | Interpretierbarkeit von Deep -Learning -Modellen: Eine Umfrage über Ergebnisse | 345 | |
| 2017 | Arxiv | Glattgrad: Entfernen von Rauschen durch Hinzufügen von Rauschen | 1479 | |
| 2017 | Arxiv | Interpretierbare und Erkundung der Annäherungen an Black Box -Modellen | 259 | |
| 2017 | Arxiv | Destillieren eines neuronalen Netzwerks in einen weichen Entscheidungsbaum | 520 | Pytorch |
| 2017 | Arxiv | Auf interpretierbare tiefe neuronale Netze durch Nutzung von kontroversen Beispielen | 111 | |
| 2017 | Arxiv | Erklärbare künstlerische Intelligenz: Verständnis, Visualisierung und Interpretation von tiefen Lernmodellen | 1279 | |
| 2017 | Arxiv | Kontextbezogene Erklärungsnetzwerke | 77 | Pytorch |
| 2017 | Arxiv | Herausforderungen für die Transparenz | 142 | |
| 2017 | ACMSOPP | DeepXplore: Automatisierte Whitebox -Tests von Deep -Lern -Systemen | 1144 | |
| 2017 | Ceurw | Was bedeutet erklärbare KI wirklich? Eine neue Konzeptualisierung von Perspektiven | 518 | |
| 2017 | TVCG | Activis: Visuelle Erkundung von tiefen neuronalen Netzwerkmodellen im Industrie im Industrie im Bereich der tiefen neuronalen Netzwerke | 346 | |
| 2016 | Neurips | Synthese der bevorzugten Eingaben für Neuronen in neuronalen Netzwerken über Deep Generator -Netzwerke | 659 | Kaffe |
| 2016 | Neurips | Verständnis des wirksamen Empfängnisfelds in tiefen nervigen Netzwerken | 1356 | |
| 2016 | CVPR | Invertierende visuelle Darstellungen mit Faltungsnetzwerken | 626 | |
| 2016 | CVPR | Visualisierung und Verständnis von tiefen Texturdarstellungen | 147 | |
| 2016 | CVPR | Analyse von Klassifikatoren: Fischervektoren und tiefe neuronale Netze | 191 | |
| 2016 | ECCV | Visuelle Erklärungen erzeugen | 613 | Kaffe |
| 2016 | ECCV | Entwurf von Kerneln in Faltungsnetzwerken für die Bildklassifizierung | vierundzwanzig | |
| 2016 | ICML | Verständnis und Verbesserung von Faltungsnetzwerken über verkettete korrigierte lineare Einheiten verstehen und verbessert | 510 | |
| 2016 | ICML | Visualisierung und Vergleich von Alexnet und VGG mithilfe von Defonvolutionschichten | 126 | |
| 2016 | EMNLP | Neuronale Vorhersagen rationalisieren | 738 | Pytorch |
| 2016 | Ijcv | Visualisierung von tiefen nervigen Netzwerken mit natürlichen Vorbildern visualisieren | 508 | Matlab |
| 2016 | Ijcv | Visualisierung von Objekterkennungsfunktionen | 38 | Kaffe |
| 2016 | KDD | Warum sollte ich Ihnen vertrauen?: Erklären Sie die Vorhersagen eines Klassifikators | 11742 | |
| 2016 | TVCG | Visualisierung der verborgenen Aktivität künstlerischer neuronaler Netze | 309 | |
| 2016 | TVCG | Auf eine bessere Analyse der tiefen nerven Netzwerke der Faltung | 474 | |
| 2016 | Naacl | Visualisierung und Verständnis von Neuralmodellen in NLP | 650 | Fackel |
| 2016 | Arxiv | Verständnis neuronaler Netzwerke durch Repräsentationslöschung) | 492 | |
| 2016 | Arxiv | Grad-Cam: Warum hast du das gesagt? | 398 | |
| 2016 | Arxiv | Investieren Sie den Einfluss von Lärm und Ablenkern auf die Interpretation neuronaler Netze | 108 | |
| 2016 | Arxiv | Aufmerksame Erklärungen: Entscheidungen rechtfertigen und auf die Beweise hinweisen | 88 | |
| 2016 | Arxiv | Die Mythos der Modellinterpretierbarkeit | 3786 | |
| 2016 | Arxiv | Mehrfacettierte Merkmalsvisualisierung: Entdecken Sie die verschiedenen Arten von Merkmalen, die jedes Neuron in tiefen neuronalen Netzwerken erlernt haben | 317 | |
| 2015 | ICLR | Einfachheitestests | 4645 | Pytorch |
| 2015 | CVPR | Verständnis von tiefen Bilddarstellungen durch Inverting von ihnen | 1942 | Matlab |
| 2015 | ICCV | Verständnis von tiefen Merkmalen mit computergenerierten Bildern | 156 | Kaffe |
| 2015 | ICML -Workshop | Verständnis neuronaler Netze durch tiefe Visualisierung | 2038 | Tensorflow |
| 2015 | Aas | Interpretierbare Klassen unter Verwendung von Regeln und Bayesian -Analyse: Aufbau eines Vorhersagemodells für bessere Schlaganfälle | 749 | |
| 2014 | ECCV | Visualisierung und Verständnis von Faltungsnetzwerken | 18604 | Pytorch |
| 2014 | ICLR | Tief in Faltungsnetzwerken: Bildklassifizierungsmodelle und Speichelkarten visualisieren | 6142 | Pytorch |
| 2013 | ICCV | Schwierigkeiten: Visualisierung von Objekterkennungsfunktionen | 352 |