awesome_deep_learning_interpretability
1.0.0
Documents liés à l'apprentissage en profondeur sur les modèles explicatifs ces dernières années.
Trier par numéro de référence
159 articles PDF (2 d'entre eux doivent être trouvés sur SciHub) ont été téléchargés sur Tencent Weiyun.
Mis à jour de temps en temps.
| Année | Publication | Papier | Citation | code |
|---|---|---|---|---|
| 2020 | CVPR | Expliquer la distillation des connaissances en quantifiant les connaissances | 81 | |
| 2020 | CVPR | La composante à haute fréquence aide à expliquer la généralisation des réseaux de neurones convolutionnels | 289 | |
| 2020 | Cvprw | Score-Cam: Explications visuelles pondérées en fonction des scores pour les réseaux de neurones convolutionnels | 414 | Pytorch |
| 2020 | ICLR | Cohérence des connaissances entre les réseaux de neurones et au-delà | 28 | |
| 2020 | ICLR | Réseaux de neurones à valeur complexe interprétables pour la protection de la vie privée | vingt-trois | |
| 2019 | IA | Explication dans l'intelligence artistique: idées des sciences sociales | 3248 | |
| 2019 | NMI | Arrêtez d'expliquer les modèles d'apprentissage machine à boîte noire pour les décisions élevées et utilisez des modèles interprétables à la place | 3505 | |
| 2019 | Nezier | Pouvez-vous faire confiance à l'incertitude de votre modèle? Évaluation de l'incertitude prédictive sous Shift de jeu de données | 1052 | - |
| 2019 | Nezier | Cela ressemble à ça: Deep Learning pour la reconnaissance d'image interprétable | 665 | Pytorch |
| 2019 | Nezier | Une référence pour les méthodes d'interprétation dans les réseaux de neurones profonds | 413 | |
| 2019 | Nezier | Représentation complète pour la visualisation du réseau neuronal | 155 | |
| 2019 | Nezier | Sur la (in) fidélité et sensibilité des explications | 226 | |
| 2019 | Nezier | Vers des explications automatiques basées sur des concepts | 342 | Tensorflow |
| 2019 | Nezier | CXPLAIN: Explications causales de l'interprétation des modèles sous incertitude | 133 | |
| 2019 | CVPR | Interpréter les CNN via des arbres de décision | 293 | |
| 2019 | CVPR | De la reconnaissance à la cognition: raisonnement visuel de bon sens | 544 | Pytorch |
| 2019 | CVPR | Réseau de branche d'attention: apprentissage du mécanisme d'attention pour l'explication visuelle | 371 | |
| 2019 | CVPR | Explications visuelles interprétables et à grain fin pour les réseaux de neurones convolutionnels | 116 | |
| 2019 | CVPR | Apprendre à expliquer avec des exemples complémentaires | 36 | |
| 2019 | CVPR | Révéler les scènes en inversant la structure des reconstructions de mouvement | 84 | Tensorflow |
| 2019 | CVPR | Explications multimodales en prédisant la contrefactualité dans les vidéos | 26 | |
| 2019 | CVPR | Visualiser la résilience des interprétations profondes du réseau convolutionnel | 2 | |
| 2019 | ICCV | U-CAM: Explication visuelle à l'aide de cartes d'activation de classe basées sur l'incertitude | 61 | |
| 2019 | ICCV | Vers la reconnaissance du visage interprétable | 66 | |
| 2019 | ICCV | Prendre un indice: tirer parti des explications pour rendre les modèles de vision et de langue plus ancrés | 163 | |
| 2019 | ICCV | Comprendre les réseaux profonds via des perturbations extrêmes et des masques lisses | 276 | Pytorch |
| 2019 | ICCV | Expliquer les réseaux de neurones sémantiquement et quantitativement | 49 | |
| 2019 | ICLR | Interprétations hiérarchiques pour les prédictions du réseau neuronal | 111 | Pytorch |
| 2019 | ICLR | Quelle est l'importance d'un neurone? | 101 | |
| 2019 | ICLR | Explication visuelle par interprétation: améliorer les capacités de rétroaction visuelle des réseaux de neurones profonds | 56 | |
| 2018 | ICML | Extraction des automates des réseaux de neurones récurrents à l'aide de requêtes et de contre-exemples | 169 | Pytorch |
| 2019 | ICML | Vers une compréhension profonde et unifiée des modèles neuronaux profonds dans la PNL | 80 | Pytorch |
| 2019 | ICAIS | Interprétation des prédictions de la boîte noire à l'aide de grains de pêche | 80 | |
| 2019 | Acmfat | Expliquer les explications dans l'IA | 558 | |
| 2019 | Aaai | L'interprétation des réseaux de neurones est fragile | 597 | Tensorflow |
| 2019 | Aaai | Extraction de la carte de saillance du classificateur | vingt-trois | |
| 2019 | Aaai | Pouvez-vous expliquer cela? Les explications lucides aident la récupération d'image collaborative humaine | 11 | |
| 2019 | Aaaiw | Apprentissage non surveillé des réseaux de neurones pour expliquer les réseaux de neurones | 28 | |
| 2019 | Aaaiw | Transplantation de réseau | 4 | |
| 2019 | Csur | Une étude des méthodes pour expliquer les modèles de boîte noire | 3088 | |
| 2019 | Jvcir | Réseaux de neurones convolutionnels interprétables via la conception de l'alimentation | 134 | Kéras |
| 2019 | Expliquer | La fiabilité (non) des méthodes de saliverncy | 515 | |
| 2019 | ACL | L'attention n'est pas une explication | 920 | |
| 2019 | EMNLP | L'attention n'est pas une explication | 667 | |
| 2019 | arxiv | Interprétabilité de l'attention à travers les tâches des PNL | 129 | |
| 2019 | arxiv | CNNS interprétable | 2 | |
| 2018 | ICLR | Vers une meilleure compréhension des méthodes d'attribut basées sur le gradient pour les réseaux de neurones profonds | 775 | |
| 2018 | ICLR | Apprendre à expliquer les réseaux de neurones: PatternNet et PatternAttribution | 342 | |
| 2018 | ICLR | Sur l'importance des directions uniques pour la généralisation | 282 | Pytorch |
| 2018 | ICLR | Détecter les interactions statistiques à partir des poids du réseau neuronal | 148 | Pytorch |
| 2018 | ICLR | Comptage interprétable pour la réponse aux questions visuelles | 55 | Pytorch |
| 2018 | CVPR | Réseaux de neurones convolutionnels interprétables | 677 | |
| 2018 | CVPR | Dites-moi où chercher: réseau d'attention d'attention guidée | 454 | Chaîne-chaîne |
| 2018 | CVPR | Explications multimodales: justifier les décisions et pointer des preuves | 349 | Caffe |
| 2018 | CVPR | Transparence par conception: combler l'écart entre les performances et l'interprétation dans le raisonnement visuel | 180 | Pytorch |
| 2018 | CVPR | Net2Vec: quantifier et expliquer comment les concepts sont codés par des filtres dans des réseaux de neurones profonds | 186 | |
| 2018 | CVPR | Qu'avons-nous appris des représentations profondes pour la reconnaissance d'action? | 52 | |
| 2018 | CVPR | Apprendre à agir correctement: prédire et expliquer les possibilités des images | 57 | |
| 2018 | CVPR | Catégories d'enseignement aux apprenants humains avec des explications visuelles | 64 | Pytorch |
| 2018 | CVPR | Qu'est-ce que les réseaux profonds aiment voir? | 36 | |
| 2018 | CVPR | Interpréter les réseaux de neurones en identifiant les chemins de routage des données critiques | 73 | Tensorflow |
| 2018 | ECCV | Regroupement profond pour l'apprentissage non supervisé des fonctionnalités visuelles | 2056 | Pytorch |
| 2018 | ECCV | L'informatique neuronale explicable via des réseaux de modules de neurones piles | 164 | Tensorflow |
| 2018 | ECCV | Mise à la terre des explications visuelles | 184 | |
| 2018 | ECCV | Explications textuelles pour les véhicules autonomes | 196 | |
| 2018 | ECCV | Décomposition de base interprétable pour l'explication visuelle | 228 | Pytorch |
| 2018 | ECCV | Convalets et ImageNet au-delà de la précision: comprendre les erreurs et découvrir les biais | 147 | |
| 2018 | ECCV | VQA-E: Expliquer, élaborer et améliorer vos réponses pour des questions visuelles | 71 | |
| 2018 | ECCV | Choisissez votre neurone: incorporer les connaissances du domaine à travers les neurones d'importance | 41 | Pytorch |
| 2018 | ECCV | Les visualisations de caractéristiques diverses révèlent des invariances dans les premières couches de réseaux de neurones profonds | vingt-trois | Tensorflow |
| 2018 | ECCV | Explican: Explication du modèle via les transformations de passage aux limites de décision | 36 | |
| 2018 | ICML | Interprétabilité au-delà de l'attribut de fonction: tests quantitatifs avec vecteurs d'activation conceptuel | 1130 | Tensorflow |
| 2018 | ICML | Apprendre à expliquer: une perspective théorique de l'information sur l'interprétation du modèle | 421 | |
| 2018 | ACL | Le modèle a-t-il compris la question? | 171 | Tensorflow |
| 2018 | Fixe | Interprétation visuelle de l'apprentissage en profondeur: une enquête | 731 | |
| 2018 | Nezier | Vérification de la santé mentale pour les cartes de salivation | 1353 | |
| 2018 | Nezier | Explications basées sur les disparus: vers des explications contraires avec des négatifs pertinents | 443 | Tensorflow |
| 2018 | Nezier | Vers une interprétation robuste avec des réseaux de neurones auto-explicatifs | 648 | Pytorch |
| 2018 | Nezier | Les attaques rencontrent l'interprétabilité: détection d'attribut d'échantillons contradictoires | 142 | |
| 2018 | Nezier | Deeppink: sélection de fonctionnalités reproductibles dans les réseaux de neurones profonds | 125 | Kéras |
| 2018 | Nezier | Sélection du point de représentant pour expliquer les réseaux de neurones profonds | 182 | Tensorflow |
| 2018 | Atelier de Neirips | Filtres convolutionnels interprétables avec Sincnet | 97 | |
| 2018 | Aaai | Ancres: explications autostiques de modèle de haute précision | 1517 | |
| 2018 | Aaai | Amélioration de la robustesse et de l'interprétation adversaires des réseaux de neurones profonds en régularisant leurs gradients d'entrée | 537 | Tensorflow |
| 2018 | Aaai | Apprentissage en profondeur pour le raisonnement basé sur des cas via des prototypes: un réseau neuronal qui explique ses prédictions | 396 | Tensorflow |
| 2018 | Aaai | Interpréter les connaissances CNN via un graphique explicatif | 199 | Matlab |
| 2018 | Aaai | Examiner les représentations CNN en ce qui concerne le biais de l'ensemble de données | 88 | |
| 2018 | Wacv | Grad-CAM ++: Explications visuelles généralisées basées sur le gradient pour les réseaux de convolution profonde | 1459 | |
| 2018 | Ijcv | Attention neuronale descendante par excitation rétroprop | 778 | |
| 2018 | Tpami | Interprétation des représentations visuelles profondes via la dissection du réseau | 252 | |
| 2018 | DSP | Méthodes d'interprétation et de compréhension des réseaux de neurones profonds | 2046 | |
| 2018 | Accéder | Jetant un coup d'œil à l'intérieur de la boîte noire: une enquête sur l'intelligence artificielle explicable (XAI) | 3110 | |
| 2018 | Jair | Apprendre des règles explicatives à partir de données bruyantes | 440 | Tensorflow |
| 2018 | Mipro | Intelligence artistique explicable: une enquête | 794 | |
| 2018 | BMVC | Rise: échantillonnage d'entrée randomisé pour l'explication des modèles de boîte noire | 657 | |
| 2018 | arxiv | Distiller-and-compare: Audit des modèles de boîte noire utilisant une distillation de modèle transparent | 194 | |
| 2018 | arxiv | Manipulation et mesure de l'interprétation du modèle | 496 | |
| 2018 | arxiv | Comment le réseau neuronal convolutionnel Voir le monde - A enquête sur les méthodes de visualisation du réseau neuronal convolutionnel | 211 | |
| 2018 | arxiv | Revisiter l'importance des unités individuelles dans CNNS via l'ablation | 93 | |
| 2018 | arxiv | Mesures efficaces sur le calcul de l'importance des neurones internes | 10 | |
| 2017 | ICML | Comprendre les prédictions de la boîte noire via des fonctions d'influence | 2062 | Pytorch |
| 2017 | ICML | Attribut axiomatique pour les réseaux profonds | 3654 | Kéras |
| 2017 | ICML | Apprendre des caractéristiques importantes grâce à la propagation des différences d'activation | 2835 | |
| 2017 | ICLR | Visualiser les décisions de réseau neuronal profond: analyse de différence de prédiction | 674 | Caffe |
| 2017 | ICLR | Explorer beaucoup dans les réseaux de neurones profonds | 34 | |
| 2017 | Nezier | Une approche unifiée pour interpréter les prédictions du modèle | 11511 | |
| 2017 | Nezier | Saillance d'image en temps réel pour les cours de boîte noire | 483 | Pytorch |
| 2017 | Nezier | SVCCA: Analyse de corrélation canonique vectorielle singulière pour la dynamique et l'interprétabilité de l'apprentissage en profondeur | 473 | |
| 2017 | CVPR | Miner des pièces d'objet de CNNS via la réponse à des questions actives | 29 | |
| 2017 | CVPR | Dissection du réseau: quantification de l'interprétabilité des représentations visuelles profondes | 1254 | |
| 2017 | CVPR | Amélioration de l'interprétabilité des réseaux de neurones profonds avec des informations sémantiques | 118 | |
| 2017 | CVPR | MDNET: Un réseau de diagnostic d'image médicale sémantiquement et visuellement interprétable | 307 | Torche |
| 2017 | CVPR | Faire le V dans la matière VQA: élever le rôle de la compréhension de l'image dans la réponse aux questions visuelles | 1686 | |
| 2017 | CVPR | Savoir quand regarder: une attention adaptative via une sentinelle visuelle pour le sous-titrage de l'image | 1392 | Torche |
| 2017 | Cvprw | Analyse de l'action humaine 3D interprétable avec des réseaux convolutionnels temporels | 539 | |
| 2017 | ICCV | Grad-CAM: Explications visuelles des réseaux profonds via la localisation basée sur le gradient | 13006 | Pytorch |
| 2017 | ICCV | Explications interprétables des boîtes noires par perturbation significative | 1293 | Pytorch |
| 2017 | ICCV | Apprentissage interprétable pour les voitures autonomes en visualisant l'attention causale | 323 | |
| 2017 | ICCV | Comprendre et comparer des réseaux de neurones profonds pour l'âge et la classification des sexes | 130 | |
| 2017 | ICCV | Apprendre à désambiguier en posant des questions discriminantes | 26 | |
| 2017 | Ijcai | Bien pour les bonnes raisons: former des modèles différenciables en contraignant leurs explications | 429 | |
| 2017 | Ijcai | Comprendre et améliorer les réseaux de neurones convolutifs via des unités linéaires rectifiées concaténées | 510 | Caffe |
| 2017 | Aaai | Graphiques de pièce interprétables croissants sur les convaints via l'apprentissage multi-shot | 67 | Matlab |
| 2017 | ACL | Visualiser et comprendre la traduction des machines neuronales | 179 | |
| 2017 | EMNLP | Un cadre causal pour expliquer les prédictions des modèles de séquence à séquence de boîte noire | 192 | |
| 2017 | Atelier CVPR | Regarder sous le capot: Visualisation du réseau neuronal profond pour interpréter les résultats de l'analyse d'image à glissement entier pour les polys colorés | 47 | |
| 2017 | Enquête | Interprétabilité des modèles d'apprentissage en profondeur: une enquête sur les résultats | 345 | |
| 2017 | arxiv | Smoothrad: retirer le bruit en ajoutant du bruit | 1479 | |
| 2017 | arxiv | Interprétable et explorer les approximations des modèles de boîte noire | 259 | |
| 2017 | arxiv | Distillant un réseau neuronal dans un arbre de décision souple | 520 | Pytorch |
| 2017 | arxiv | Vers des réseaux de neurones profonds interprétables en tirant parti des exemples contradictoires | 111 | |
| 2017 | arxiv | Intelligence artistique explicable: comprendre, visualiser et interpréter les modèles d'apprentissage en profondeur | 1279 | |
| 2017 | arxiv | Réseaux d'explication contextuels | 77 | Pytorch |
| 2017 | arxiv | Défis de transparence | 142 | |
| 2017 | Acmsopp | Deepxplore: Test automatisé de la boîte blanche des systèmes d'apprentissage en profondeur | 1144 | |
| 2017 | Ceurw | Que signifie vraiment l'IA explicable? Une nouvelle conceptualisation des perspectives | 518 | |
| 2017 | Tvcg | Activis: Exploration visuelle des modèles de réseaux de neurones profonds à l'échelle de l'industrie | 346 | |
| 2016 | Nezier | Synthétisant les entrées préférées pour les neurones dans les réseaux de neurones via des réseaux de générateurs profonds | 659 | Caffe |
| 2016 | Nezier | Comprendre le domaine réceptif efficace dans les réseaux de neurones convolutionnels profonds | 1356 | |
| 2016 | CVPR | Inversion des représentations visuelles avec des réseaux convolutionnels | 626 | |
| 2016 | CVPR | Visualiser et comprendre les représentations de texture profonde | 147 | |
| 2016 | CVPR | Analyse des classificateurs: vecteurs Fisher et réseaux de neurones profonds | 191 | |
| 2016 | ECCV | Générer des explications visuelles | 613 | Caffe |
| 2016 | ECCV | Conception de noyaux dans des réseaux de neurones convolutionnels pour la classification de l'image | vingt-quatre | |
| 2016 | ICML | Comprendre et améliorer les réseaux de neurones convolutifs via des unités linéaires rectifiées concaténées | 510 | |
| 2016 | ICML | Visualiser et comparer Alexnet et VGG à l'aide de couches déconvolutionnelles | 126 | |
| 2016 | EMNLP | Rationalisation des prédictions neuronales | 738 | Pytorch |
| 2016 | Ijcv | Visualiser les réseaux de neurones convolutionnels profonds en utilisant des pré-images naturels | 508 | Matlab |
| 2016 | Ijcv | Visualiser les fonctionnalités de détection d'objets | 38 | Caffe |
| 2016 | KDD | Pourquoi devrais-je vous faire confiance ?: Expliquer les prédictions d'un classificateur | 11742 | |
| 2016 | Tvcg | Visualiser l'activité cachée des réseaux de neurones artistiques | 309 | |
| 2016 | Tvcg | Vers une meilleure analyse des réseaux de neurones convolutionnels profonds | 474 | |
| 2016 | Naacl | Visualiser et comprendre les modèles neuronaux dans la PNL | 650 | Torche |
| 2016 | arxiv | Comprendre les réseaux de neurones grâce à l'effacement de la représentation) | 492 | |
| 2016 | arxiv | Grad-cam: Pourquoi avez-vous dit cela? | 398 | |
| 2016 | arxiv | Investir l'influence du bruit et des distracteurs sur l'interprétation des réseaux de neurones | 108 | |
| 2016 | arxiv | Explications attentives: justifier les décisions et pointer des preuves | 88 | |
| 2016 | arxiv | Le mythe de l'interprétabilité du modèle | 3786 | |
| 2016 | arxiv | Visualisation des fonctionnalités multiformes: Découvrir les différents types de fonctionnalités apprises par chaque neurone dans des réseaux de neurones profonds | 317 | |
| 2015 | ICLR | Strouver pour la simplicité: le filet entièrement convolutionnel | 4645 | Pytorch |
| 2015 | CVPR | Comprendre les représentations d'images profondes en les inversant | 1942 | Matlab |
| 2015 | ICCV | Comprendre des fonctionnalités profondes avec des images générées par ordinateur | 156 | Caffe |
| 2015 | Atelier ICML | Comprendre les réseaux de neurones grâce à une visualisation profonde | 2038 | Tensorflow |
| 2015 | AAS | Classes interprétables à l'aide de règles et d'analyse bayésienne: construire un meilleur modèle de prédiction de l'AVC | 749 | |
| 2014 | ECCV | Visualiser et comprendre les réseaux convolutionnels | 18604 | Pytorch |
| 2014 | ICLR | Réseaux convolutionnels profondément à l'intérieur: visualiser les modèles de classification d'images et les cartes de salivation | 6142 | Pytorch |
| 2013 | ICCV | Hoggles: visualiser les fonctionnalités de détection d'objets | 352 |