awesome_deep_learning_interpretability
1.0.0
Documentos relacionados à aprendizagem profunda sobre o modelo explicativo nos últimos anos.
Classificar por número de referência
159 Documentos PDF (2 deles precisam ser encontrados no Scihub) foram enviados para Tencent Weiyun.
Atualizado de tempos em tempos.
| Ano | Publicação | Papel | Citação | código |
|---|---|---|---|---|
| 2020 | Cvpr | Explicando a destilação do conhecimento quantificando o conhecimento | 81 | |
| 2020 | Cvpr | Componente de alta frequência ajuda a explicar a generalização de redes neurais convolucionais | 289 | |
| 2020 | Cvprw | Score-CAM: Explicações visuais ponderadas por pontuação para redes neurais convolucionais | 414 | Pytorch |
| 2020 | ICLR | Consistência do conhecimento entre redes neurais e além | 28 | |
| 2020 | ICLR | Redes neurais de valor complexo interpretável para proteção de privacidade | vinte e três | |
| 2019 | Ai | Explicação em Inteligência Artística: Insights das Ciências Sociais | 3248 | |
| 2019 | NMI | Pare de explicar os modelos de aprendizado de máquina da caixa preta para decisões de alto risco e use modelos interpretáveis em vez disso | 3505 | |
| 2019 | Neurips | Você pode confiar na incerteza do seu modelo? Avaliando a incerteza preditiva em mudança de conjunto de dados | 1052 | - |
| 2019 | Neurips | Parece isso: aprendizado profundo para reconhecimento de imagem interpretável | 665 | Pytorch |
| 2019 | Neurips | Uma referência para métodos de interpretação em redes neurais profundas | 413 | |
| 2019 | Neurips | Representação de gradiente completo para visualização de rede neural | 155 | |
| 2019 | Neurips | Sobre a fidelidade e a sensibilidade das explicações | 226 | |
| 2019 | Neurips | Para explicações automáticas baseadas em conceitos | 342 | Tensorflow |
| 2019 | Neurips | Cxplain: explicações causais para interpretação do modelo sob incerteza | 133 | |
| 2019 | Cvpr | Interpretando CNNs através de árvores de decisão | 293 | |
| 2019 | Cvpr | Do reconhecimento à cognição: raciocínio visual de senso comum | 544 | Pytorch |
| 2019 | Cvpr | Rede de ramificação de atenção: aprendizado de mecanismo de atenção para explicação visual | 371 | |
| 2019 | Cvpr | Explicações visuais interpretáveis e de granulação fina para redes neurais convolucionais | 116 | |
| 2019 | Cvpr | Aprendendo a explicar com exemplos complementares | 36 | |
| 2019 | Cvpr | Cenas reveladoras, invertendo a estrutura de reconstruções de movimento | 84 | Tensorflow |
| 2019 | Cvpr | Explicações multimodais prevendo a contrafactualidade em vídeos | 26 | |
| 2019 | Cvpr | Visualizando a resiliência de profundas interpretações de rede convolucional | 2 | |
| 2019 | ICCV | U-CAM: Explicação visual usando mapas de ativação de classe baseados em incerteza | 61 | |
| 2019 | ICCV | Rumo ao reconhecimento de rosto interpretável | 66 | |
| 2019 | ICCV | Tomando uma dica: alavancando explicações para tornar os modelos de visão e linguagem mais fundamentados | 163 | |
| 2019 | ICCV | Entendendo redes profundas por meio de perturbações extremais e máscaras suaves | 276 | Pytorch |
| 2019 | ICCV | Explicando redes neurais semanticamente e quantitativamente | 49 | |
| 2019 | ICLR | Interpretações hierárquicas para previsões de rede neural | 111 | Pytorch |
| 2019 | ICLR | Quão importante é um neurônio? | 101 | |
| 2019 | ICLR | Explicação visual por interpretação: melhorando os recursos de feedback visual de redes neurais profundas | 56 | |
| 2018 | ICML | Extraindo autômatos de redes neurais recorrentes usando consultas e contra -exemplos | 169 | Pytorch |
| 2019 | ICML | Em direção a uma compreensão profunda e unificada de modelos neurais profundos na PNL | 80 | Pytorch |
| 2019 | ICais | Interpretando previsões de caixas pretas usando grãos pescadores | 80 | |
| 2019 | Acmfat | Explicando explicações na IA | 558 | |
| 2019 | Aaai | A interpretação das redes neurais é frágil | 597 | Tensorflow |
| 2019 | Aaai | Extração do mapa de saliência agnóstico do classificador | vinte e três | |
| 2019 | Aaai | Você pode explicar isso? Explicações lúcidas ajudam a recuperação de imagem colaborativa humana-AI | 11 | |
| 2019 | Aaaiw | Aprendizagem não supervisionada de redes neurais para explicar as redes neurais | 28 | |
| 2019 | Aaaiw | Transplante de rede | 4 | |
| 2019 | CSUR | Uma pesquisa com métodos para explicar modelos de caixas pretas | 3088 | |
| 2019 | Jvcir | Redes neurais convolucionais interpretáveis por meio de design de feedforward | 134 | Keras |
| 2019 | Expliquei | A (não) confiabilidade dos métodos de salivência | 515 | |
| 2019 | ACL | Atenção não é explicação | 920 | |
| 2019 | Emnlp | Atenção não é explicação | 667 | |
| 2019 | arxiv | Interpretabilidade da atenção nas tarefas de PNL | 129 | |
| 2019 | arxiv | CNNs interpretáveis | 2 | |
| 2018 | ICLR | Para uma melhor compreensão dos métodos de atributo baseados em gradiente para redes neurais profundas | 775 | |
| 2018 | ICLR | Aprendendo a explicar as redes neurais: PatternNet e Patternattribution | 342 | |
| 2018 | ICLR | Sobre a importância de direções únicas para generalização | 282 | Pytorch |
| 2018 | ICLR | Detectando interações estatísticas de pesos da rede neural | 148 | Pytorch |
| 2018 | ICLR | Contagem interpretável para responder a perguntas visuais | 55 | Pytorch |
| 2018 | Cvpr | Redes neurais convolucionais interpretáveis | 677 | |
| 2018 | Cvpr | Diga -me onde procurar: Atenção Guiada Rede de Inferência | 454 | Chainner |
| 2018 | Cvpr | Explicações multimodais: justificando decisões e apontando para a evidência | 349 | Caffe |
| 2018 | Cvpr | Transparência por design: feche a lacuna entre desempenho e interpretação no raciocínio visual | 180 | Pytorch |
| 2018 | Cvpr | NET2VEC: Quantificando e explicando como os conceitos são codificados por filtros em redes neurais profundas | 186 | |
| 2018 | Cvpr | O que aprendemos com representações profundas para reconhecimento de ação? | 52 | |
| 2018 | Cvpr | Aprendendo a agir corretamente: prever e explicar as possibilidades de imagens | 57 | |
| 2018 | Cvpr | Categorias de ensino para alunos humanos com explicações visuais | 64 | Pytorch |
| 2018 | Cvpr | O que as redes profundas gostam de ver? | 36 | |
| 2018 | Cvpr | Interpretar redes neurais, identificando caminhos críticos de roteamento de dados | 73 | Tensorflow |
| 2018 | ECCV | Agrupamento profundo para aprendizado não supervisionado de recursos visuais | 2056 | Pytorch |
| 2018 | ECCV | Computação neural explicável por meio de redes de módulos neurais de pilha | 164 | Tensorflow |
| 2018 | ECCV | Explicações visuais fundamentais | 184 | |
| 2018 | ECCV | Explicações textuais para veículos autônomos | 196 | |
| 2018 | ECCV | Decomposição de base interpretável para explicação visual | 228 | Pytorch |
| 2018 | ECCV | Convnets e imagenet além da precisão: entender erros e descobrir vieses | 147 | |
| 2018 | ECCV | VQA-e: explicando, elaborando e aprimorando suas respostas para perguntas visuais | 71 | |
| 2018 | ECCV | Escolha o seu neurônio: incorporando o conhecimento do domínio por meio da importância do neurônio | 41 | Pytorch |
| 2018 | ECCV | Visualizações de recursos diversos revelam invariâncias em camadas iniciais de redes neurais profundas | vinte e três | Tensorflow |
| 2018 | ECCV | Explicaingan: explicação do modelo por meio de transformações de cruzamento de limites de decisão | 36 | |
| 2018 | ICML | Interpretabilidade além do atributo de recurso: testes quantitativos com vetores de ativação conceitual | 1130 | Tensorflow |
| 2018 | ICML | Aprendendo a explicar: uma perspectiva teórica da informação sobre a interpretação do modelo | 421 | |
| 2018 | ACL | O modelo entendeu a pergunta? | 171 | Tensorflow |
| 2018 | Fitee | Interpretação visual para aprendizado profundo: uma pesquisa | 731 | |
| 2018 | Neurips | A sanidade verifica mapas de salivação | 1353 | |
| 2018 | Neurips | Explicações baseadas na falta: para explicações contrárias com negativos pertinentes | 443 | Tensorflow |
| 2018 | Neurips | Rumo à interpretação robusta com redes neurais auto-expedidas | 648 | Pytorch |
| 2018 | Neurips | Ataques atendem à interpretabilidade: Detecção de atributos de amostras adversárias | 142 | |
| 2018 | Neurips | Deeppink: seleção de recursos reproduzíveis em redes neurais profundas | 125 | Keras |
| 2018 | Neurips | Seleção de pontos do representante para explicar redes neurais profundas | 182 | Tensorflow |
| 2018 | Workshop Neurips | Filtros convolucionais interpretáveis com Sincnet | 97 | |
| 2018 | Aaai | Âncoras: Explicações agnósticas modelo de alta precisão | 1517 | |
| 2018 | Aaai | Melhorando a robustez adversária e a interpretação das redes neurais profundas, regularizando seus gradientes de entrada | 537 | Tensorflow |
| 2018 | Aaai | Aprendizado profundo para o raciocínio baseado em casos através de protótipos: uma rede neural que explica suas previsões | 396 | Tensorflow |
| 2018 | Aaai | Interpretando o conhecimento da CNN por meio de um gráfico explicativo | 199 | Matlab |
| 2018 | Aaai | Examinando representações da CNN em relação ao viés do conjunto de dados | 88 | |
| 2018 | WACV | Grad-Cam ++: Explicações visuais baseadas em gradiente generalizado para redes convolucionais profundas | 1459 | |
| 2018 | IJCV | Atenção neural de cima para baixo por excitação backprop | 778 | |
| 2018 | Tpami | Interpretando representações visuais profundas via dissecção de rede | 252 | |
| 2018 | DSP | Métodos para interpretar e entender redes neurais profundas | 2046 | |
| 2018 | Acesso | Espreitando dentro da caixa preta: uma pesquisa sobre inteligência artificial explicável (XAI) | 3110 | |
| 2018 | Jair | Aprendendo regras explicativas a partir de dados barulhentos | 440 | Tensorflow |
| 2018 | Mipro | Inteligência artística explicável: uma pesquisa | 794 | |
| 2018 | BMVC | Rise: Amostragem de entrada randomizada para explicação de modelos de caixa preta | 657 | |
| 2018 | arxiv | Destill-and-Compare: Auditando modelos de caixa preta usando destilação de modelo transparente | 194 | |
| 2018 | arxiv | Manipulando e medindo a interpretação do modelo | 496 | |
| 2018 | arxiv | Como a rede neural convolucional veja o mundo-uma pesquisa de métodos convolucionais de visualização de rede neural | 211 | |
| 2018 | arxiv | Revisitando a importância de unidades individuais nos CNNs via ablação | 93 | |
| 2018 | arxiv | Medidas computacionalmente eficientes de importância do neurônio interno | 10 | |
| 2017 | ICML | Entendendo as previsões de caixa preta via funções de influência | 2062 | Pytorch |
| 2017 | ICML | Atributo axiomático para redes profundas | 3654 | Keras |
| 2017 | ICML | Aprendendo características importantes através da propagação de diferenças de ativação | 2835 | |
| 2017 | ICLR | Visualizando decisões de rede neural profunda: Análise de diferença de previsão | 674 | Caffe |
| 2017 | ICLR | Explorando lotes em redes neurais profundas | 34 | |
| 2017 | Neurips | Uma abordagem unificada para interpretar previsões de modelos | 11511 | |
| 2017 | Neurips | Saliência da imagem em tempo real para aulas de caixa preta | 483 | Pytorch |
| 2017 | Neurips | SVCCA: análise de correlação canônica do vetor singular para dinâmica e interpretabilidade de aprendizado profundo | 473 | |
| 2017 | Cvpr | Peças de objeto de mineração dos CNNs por meio de resposta a perguntas ativas | 29 | |
| 2017 | Cvpr | Dissecção de rede: quantificando a interpretabilidade de representações visuais profundas | 1254 | |
| 2017 | Cvpr | Melhorando a interpretabilidade de redes neurais profundas com informações semânticas | 118 | |
| 2017 | Cvpr | MDNET: uma rede de diagnóstico de imagem médica semantica e visualmente interpretável | 307 | Tocha |
| 2017 | Cvpr | Fazendo o V em VQA matéria: elevando o papel do entendimento da imagem na resposta visual de perguntas | 1686 | |
| 2017 | Cvpr | Saber quando procurar: atenção adaptativa por meio de um Sentinel visual para a legenda da imagem | 1392 | Tocha |
| 2017 | Cvprw | Análise interpretável de ação humana 3D com redes convolucionais temporais | 539 | |
| 2017 | ICCV | Grad-cam: explicações visuais de redes profundas por meio de localização baseada em gradiente | 13006 | Pytorch |
| 2017 | ICCV | Explicações interpretáveis de caixas pretas por perturbação significativa | 1293 | Pytorch |
| 2017 | ICCV | Aprendizagem interpretável para carros autônomos, visualizando a atenção causal | 323 | |
| 2017 | ICCV | Entendendo e comparando redes neurais profundas para a idade e classificação de gênero | 130 | |
| 2017 | ICCV | Aprendendo a se desambiguar fazendo perguntas discriminativas | 26 | |
| 2017 | Ijcai | Certo pelas razões certas: treinar modelos diferenciáveis restringindo suas explicações | 429 | |
| 2017 | Ijcai | Entendendo e melhorando as redes neurais convolucionais por meio de unidades lineares retificadas concatenadas | 510 | Caffe |
| 2017 | Aaai | Gráficos de peças interpretáveis crescentes em Convnets por meio de aprendizado com vários tiros | 67 | Matlab |
| 2017 | ACL | Visualizar e entender a tradução da máquina neural | 179 | |
| 2017 | Emnlp | Uma estrutura causada para explicar as previsões dos modelos de sequência de sequência de caixa preta | 192 | |
| 2017 | Workshop CVPR | Olhando sob o capô: Visualização de rede neural profunda para interpretar os resultados da análise de imagem em todo o deslizamento para polys coloridos | 47 | |
| 2017 | Enquete | Interpretabilidade de modelos de aprendizado profundo: uma pesquisa com resultados | 345 | |
| 2017 | arxiv | SmoothGrad: Removendo o ruído adicionando ruído | 1479 | |
| 2017 | arxiv | Interpretável e explore aproximações de modelos de caixa preta | 259 | |
| 2017 | arxiv | Destilar uma rede neural em uma árvore de decisão suave | 520 | Pytorch |
| 2017 | arxiv | Para redes neurais profundas interpretáveis, alavancando exemplos adversários | 111 | |
| 2017 | arxiv | Inteligência artística explicável: compreensão, visualização e interpretação de modelos de aprendizado profundo | 1279 | |
| 2017 | arxiv | Redes de explicação contextuais | 77 | Pytorch |
| 2017 | arxiv | Desafios para a transparência | 142 | |
| 2017 | ACMSOPP | Deepxplore: teste automatizado de WhiteBox de sistemas de aprendizado profundo | 1144 | |
| 2017 | CEURW | O que a IA explicável realmente significa? Uma nova conceituação de perspectivas | 518 | |
| 2017 | TVCG | Activis: Exploração visual de modelos de rede neural profunda em escala do setor | 346 | |
| 2016 | Neurips | Sintetizando as entradas preferidas para neurônios em redes neurais por meio de redes de generadores profundos | 659 | Caffe |
| 2016 | Neurips | Compreendendo o campo receptivo eficaz em profundas redes neurais convolucionais | 1356 | |
| 2016 | Cvpr | Invertendo representações visuais com redes convolucionais | 626 | |
| 2016 | Cvpr | Visualizar e entender representações profundas de textura | 147 | |
| 2016 | Cvpr | Analisando classificadores: vetores pescadores e redes neurais profundas | 191 | |
| 2016 | ECCV | Gerando explicações visuais | 613 | Caffe |
| 2016 | ECCV | Design de kernels em redes neurais convolucionais para classificação de imagem | vinte e quatro | |
| 2016 | ICML | Entendendo e melhorando as redes neurais convolucionais por meio de unidades lineares retificadas concatenadas | 510 | |
| 2016 | ICML | Visualizando e comparando Alexnet e VGG usando camadas desconvolucionárias | 126 | |
| 2016 | Emnlp | Racionalizando previsões neurais | 738 | Pytorch |
| 2016 | IJCV | Visualização de profundas redes neurais convolucionais usando pré-imagens naturais | 508 | Matlab |
| 2016 | IJCV | Visualizando recursos de detecção de objetos | 38 | Caffe |
| 2016 | KDD | Por que devo confiar em você?: Explicando as previsões de algum classificador | 11742 | |
| 2016 | TVCG | Visualizando a atividade oculta das redes neurais artísticas | 309 | |
| 2016 | TVCG | Para uma melhor análise de profundas redes neurais convolucionais | 474 | |
| 2016 | Naacl | Visualizar e entender modelos neurais na PNL | 650 | Tocha |
| 2016 | arxiv | Entendendo as redes neurais por meio da representação apagada) | 492 | |
| 2016 | arxiv | Grad-Cam: Por que você disse isso? | 398 | |
| 2016 | arxiv | Investindo a influência do ruído e dos distratores na interpretação das redes neurais | 108 | |
| 2016 | arxiv | Explicações atentas: justificando decisões e apontando para a evidência | 88 | |
| 2016 | arxiv | Os mitos da interpretabilidade do modelo | 3786 | |
| 2016 | arxiv | Visualização de recursos multifacetados: descobrindo os diferentes tipos de recursos aprendidos por cada neurônio em redes neurais profundas | 317 | |
| 2015 | ICLR | Lutando pela simplicidade: a rede totalmente convolucional | 4645 | Pytorch |
| 2015 | Cvpr | Compreender representações de imagem profunda invertendo -as | 1942 | Matlab |
| 2015 | ICCV | Compreendendo recursos profundos com imagens geradas por computador | 156 | Caffe |
| 2015 | Workshop ICML | Entendendo as redes neurais através da visualização profunda | 2038 | Tensorflow |
| 2015 | AAS | Classes interpretáveis usando regras e análise bayesiana: construindo um modelo de previsão de derrame melhor | 749 | |
| 2014 | ECCV | Visualizar e entender as redes convolucionais | 18604 | Pytorch |
| 2014 | ICLR | No fundo de redes convolucionais: visualização de modelos de classificação de imagens e mapas de salivação | 6142 | Pytorch |
| 2013 | ICCV | HOGGLES: Visualizando recursos de detecção de objetos | 352 |