awesome_deep_learning_interpretability
1.0.0
Documentos relacionados con el aprendizaje profundo sobre el modelo explicativo en los últimos años.
Ordenar por número de referencia
159 documentos PDF (2 de ellos deben encontrarse en Scihub) fueron subidos a Tencent Weiyun.
Actualizado de vez en cuando.
| Año | Publicación | Papel | Citación | código |
|---|---|---|---|---|
| 2020 | CVPR | Explicando la destilación del conocimiento cuantificando el conocimiento | 81 | |
| 2020 | CVPR | El componente de alta frecuencia ayuda a explicar la generalización de las redes neuronales convolucionales | 289 | |
| 2020 | CVPRW | Puntaje Cam: explicaciones visuales ponderadas en puntuación para redes neuronales convolucionales | 414 | Pytorch |
| 2020 | ICLR | Consistencia del conocimiento entre redes neuronales y más allá | 28 | |
| 2020 | ICLR | Redes neuronales de valor complejo interpretable para la protección de la privacidad | veintitrés | |
| 2019 | AI | Explicación en inteligencia artística: ideas de las ciencias sociales | 3248 | |
| 2019 | NMI | Deje de explicar modelos de aprendizaje automático de caja negra para decisiones de alto riesgo y use modelos interpretables en su lugar | 3505 | |
| 2019 | Neuros | ¿Puedes confiar en la incertidumbre de tu modelo? Evaluar la incertidumbre predictiva bajo el cambio de conjunto de datos | 1052 | - |
| 2019 | Neuros | Esto se ve así: aprendizaje profundo para el reconocimiento de imágenes interpretable | 665 | Pytorch |
| 2019 | Neuros | Un punto de referencia para los métodos de interpretación en redes neuronales profundas | 413 | |
| 2019 | Neuros | Representación de gradiente completo para la visualización de la red neuronal | 155 | |
| 2019 | Neuros | Sobre la (in) fidelidad y sensibilidad de las explicaciones | 226 | |
| 2019 | Neuros | Hacia explicaciones automáticas basadas en conceptos | 342 | Flujo tensor |
| 2019 | Neuros | CXPlain: explicaciones causales para la interpretación del modelo bajo incertidumbre | 133 | |
| 2019 | CVPR | Interpretando CNN a través de árboles de decisión | 293 | |
| 2019 | CVPR | Desde el reconocimiento hasta la cognición: razonamiento visual de sentido común | 544 | Pytorch |
| 2019 | CVPR | Red de rama de atención: aprendizaje del mecanismo de atención para la explicación visual | 371 | |
| 2019 | CVPR | Explicaciones visuales interpretables y de grano fino para redes neuronales convolucionales | 116 | |
| 2019 | CVPR | Aprender a explicar con ejemplos complementarios | 36 | |
| 2019 | CVPR | Revelando escenas al invertir la estructura de las reconstrucciones de movimiento | 84 | Flujo tensor |
| 2019 | CVPR | Explicaciones multimodales mediante la predicción de la contrafactualidad en los videos | 26 | |
| 2019 | CVPR | Visualizar la resistencia de profundas interpretaciones de la red convolucional | 2 | |
| 2019 | ICCV | U-Cam: explicación visual utilizando mapas de activación de clase basados en la incertidumbre | 61 | |
| 2019 | ICCV | Hacia el reconocimiento de la cara interpretable | 66 | |
| 2019 | ICCV | Tomar una pista: aprovechando las explicaciones para hacer que los modelos de visión y lenguaje sean más fundamentados | 163 | |
| 2019 | ICCV | Comprender las redes profundas a través de perturbaciones extremas y máscaras suaves | 276 | Pytorch |
| 2019 | ICCV | Explicar las redes neuronales de manera semántica y cuantitativa | 49 | |
| 2019 | ICLR | Interpretaciones jerárquicas para predicciones de redes neuronales | 111 | Pytorch |
| 2019 | ICLR | ¿Qué tan importante es una neurona? | 101 | |
| 2019 | ICLR | Explicación visual por interpretación: Mejora de las capacidades de retroalimentación visual de redes neuronales profundas | 56 | |
| 2018 | ICML | Extracción de autómatas de redes neuronales recurrentes utilizando consultas y contraejemplos | 169 | Pytorch |
| 2019 | ICML | Hacia una comprensión profunda y unificada de los modelos neuronales profundos en la PNL | 80 | Pytorch |
| 2019 | ICAIS | Interpretación de predicciones de caja negra utilizando granos Fisher | 80 | |
| 2019 | Acmfat | Explicando explicaciones en AI | 558 | |
| 2019 | AAAI | La interpretación de las redes neuronales es frágil | 597 | Flujo tensor |
| 2019 | AAAI | Extracción del mapa de prominencia del clasificador-agnóstico | veintitrés | |
| 2019 | AAAI | ¿Puedes explicar eso? Las explicaciones lúcidas ayudan a la recuperación de imágenes colaborativas de Human-AI | 11 | |
| 2019 | Aaaiw | Aprendizaje no supervisado de redes neuronales para explicar las redes neuronales | 28 | |
| 2019 | Aaaiw | Trasplante de red | 4 | |
| 2019 | Csur | Una encuesta de métodos para explicar modelos de caja negra | 3088 | |
| 2019 | Jvcir | Redes neuronales convolucionales interpretables a través del diseño Feedforward | 134 | Keras |
| 2019 | Explicar | La (no) fiabilidad de los métodos de salivencia | 515 | |
| 2019 | LCA | La atención no es explicación | 920 | |
| 2019 | EMNLP | La atención no es explicación | 667 | |
| 2019 | arxiv | Interpretabilidad de la atención en las tareas de PNL | 129 | |
| 2019 | arxiv | CNNS interpretables | 2 | |
| 2018 | ICLR | Hacia una mejor comprensión de los métodos de atributos basados en gradientes para redes neuronales profundas | 775 | |
| 2018 | ICLR | Aprender a explicar las redes neuronales: PatternNet y PatternAttribution | 342 | |
| 2018 | ICLR | Sobre la importancia de las instrucciones individuales para la generalización | 282 | Pytorch |
| 2018 | ICLR | Detección de interacciones estadísticas de pesos de redes neuronales | 148 | Pytorch |
| 2018 | ICLR | Contando interpretable para la respuesta de preguntas visuales | 55 | Pytorch |
| 2018 | CVPR | Redes neuronales convolucionales interpretables | 677 | |
| 2018 | CVPR | Dime dónde mirar: Red de inferencia de atención guiada | 454 | Encadenador |
| 2018 | CVPR | Explicaciones multimodales: justificar decisiones y señalar la evidencia | 349 | Cafetería |
| 2018 | CVPR | Transparencia por diseño: cierre la brecha entre el rendimiento y la interpretación en el razonamiento visual | 180 | Pytorch |
| 2018 | CVPR | Net2Vec: Cuantificación y explicación de cómo los conceptos están codificados por filtros en redes neuronales profundas | 186 | |
| 2018 | CVPR | ¿Qué hemos aprendido de las representaciones profundas para el reconocimiento de acción? | 52 | |
| 2018 | CVPR | Aprender a actuar correctamente: predecir y explicar las posibilidades de las imágenes | 57 | |
| 2018 | CVPR | Enseñando categorías a alumnos humanos con explicaciones visuales | 64 | Pytorch |
| 2018 | CVPR | ¿Qué les gusta ver las redes profundas? | 36 | |
| 2018 | CVPR | Interpretar redes neuronales identificando rutas críticas de enrutamiento de datos | 73 | Flujo tensor |
| 2018 | ECCV | Clúster profundo para el aprendizaje no supervisado de las características visuales | 2056 | Pytorch |
| 2018 | ECCV | Computación neuronal explicable a través de redes de módulos neuronales de pila | 164 | Flujo tensor |
| 2018 | ECCV | Explicaciones visuales de puesta a tierra | 184 | |
| 2018 | ECCV | Explicaciones textuales para vehículos autónomos | 196 | |
| 2018 | ECCV | Descomposición de base interpretable para explicación visual | 228 | Pytorch |
| 2018 | ECCV | Convnets e Imagenet más allá de la precisión: comprender los errores y los prejuicios descubiertos | 147 | |
| 2018 | ECCV | VQA-E: Explicar, elaborar y mejorar sus respuestas para preguntas visuales | 71 | |
| 2018 | ECCV | Elija su neurona: incorporar el conocimiento del dominio a través de la importancia neuronal | 41 | Pytorch |
| 2018 | ECCV | Diversas visualizaciones de características revelan invarianes en las primeras capas de redes neuronales profundas | veintitrés | Flujo tensor |
| 2018 | ECCV | Explraingan: Explicación del modelo a través de transformaciones de cruce de límites de decisión | 36 | |
| 2018 | ICML | Interpretabilidad más allá del atributo de características: prueba cuantitativa con vectores de activación conceptual | 1130 | Flujo tensor |
| 2018 | ICML | Aprender a explicar: una perspectiva teórica de información sobre la interpretación del modelo | 421 | |
| 2018 | LCA | ¿El modelo entendió la pregunta? | 171 | Flujo tensor |
| 2018 | Fitee | Interpretación visual para el aprendizaje profundo: una encuesta | 731 | |
| 2018 | Neuros | Verificaciones de cordura para mapas de salivación | 1353 | |
| 2018 | Neuros | Explicaciones basadas en los faltantes: hacia explicaciones contrarias con negativos pertinentes | 443 | Flujo tensor |
| 2018 | Neuros | Hacia una interpretación sólida con redes neuronales autoexplicables | 648 | Pytorch |
| 2018 | Neuros | Los ataques cumplen con la interpretabilidad: detección de muestras adversas en atributos | 142 | |
| 2018 | Neuros | Deeppink: selección de características reproducibles en redes neuronales profundas | 125 | Keras |
| 2018 | Neuros | Selección de puntos de representante para explicar redes neuronales profundas | 182 | Flujo tensor |
| 2018 | Taller Neurips | Filtros convolucionales interpretables con Sincnet | 97 | |
| 2018 | AAAI | Anclas: Explicaciones del modelo de alta precisión agnóstica | 1517 | |
| 2018 | AAAI | Mejora de la robustez y interpretación de las redes neuronales profundas regularizando sus gradientes de entrada | 537 | Flujo tensor |
| 2018 | AAAI | Aprendizaje profundo para el razonamiento basado en casos a través de prototipos: una red neuronal que explica sus predicciones | 396 | Flujo tensor |
| 2018 | AAAI | Interpretar el conocimiento de CNN a través de un gráfico explicativo | 199 | Matlab |
| 2018 | AAAI | Examinar representaciones de CNN con respecto al sesgo del conjunto de datos | 88 | |
| 2018 | WACV | Grad-Cam ++: explicaciones visuales generalizadas basadas en gradientes para redes convolucionales profundas | 1459 | |
| 2018 | Ijcv | Atención neuronal de arriba hacia abajo por excitación Backprop | 778 | |
| 2018 | Tpami | Interpretando representaciones visuales profundas a través de la disección de la red | 252 | |
| 2018 | DSP | Métodos para interpretar y comprender redes neuronales profundas | 2046 | |
| 2018 | Acceso | Pisando dentro de la caja negra: una encuesta sobre inteligencia artificial explicable (XAI) | 3110 | |
| 2018 | Jair | Aprender reglas explicativas de datos ruidosos | 440 | Flujo tensor |
| 2018 | Mipro | Inteligencia artística explicable: una encuesta | 794 | |
| 2018 | Bmvc | Rise: muestreo de entrada aleatorizado para la explicación de los modelos de caja negra | 657 | |
| 2018 | arxiv | Distill y comparación: auditar modelos de caja negra utilizando la destilación de modelos transparentes | 194 | |
| 2018 | arxiv | Manipular y medir la interpretación del modelo | 496 | |
| 2018 | arxiv | Cómo la red neuronal convolucional ver la encuesta mundial de métodos de visualización de la red neuronal convolucional | 211 | |
| 2018 | arxiv | Revisando la importancia de las unidades individuales en CNN a través de la ablación | 93 | |
| 2018 | arxiv | Medidas computacionalmente eficientes de la importancia de las neuronas internas | 10 | |
| 2017 | ICML | Comprender las predicciones de la caja negra a través de funciones de influencia | 2062 | Pytorch |
| 2017 | ICML | Atributo axiomático para redes profundas | 3654 | Keras |
| 2017 | ICML | Aprender características importantes a través de diferencias de activación de propagación | 2835 | |
| 2017 | ICLR | Visualización de decisiones de red neuronal profunda: análisis de diferencia de predicción | 674 | Cafetería |
| 2017 | ICLR | Explorando lotes en redes neuronales profundas | 34 | |
| 2017 | Neuros | Un enfoque unificado para interpretar las predicciones del modelo | 11511 | |
| 2017 | Neuros | Imagen en tiempo real Saliencia para clases de caja negra | 483 | Pytorch |
| 2017 | Neuros | SVCCA: análisis de correlación canónica vectorial singular para la dinámica e interpretabilidad del aprendizaje profundo | 473 | |
| 2017 | CVPR | Partes de objetos mineros de CNN a través de la respuesta de pregunta activa | 29 | |
| 2017 | CVPR | Disección de la red: cuantificar la interpretabilidad de representaciones visuales profundas | 1254 | |
| 2017 | CVPR | Mejora de la interpretabilidad de las redes neuronales profundas con información semántica | 118 | |
| 2017 | CVPR | MDNET: una red de diagnóstico de imágenes médicas de interpretación médica semántica y visual | 307 | Antorcha |
| 2017 | CVPR | Hacer que la V en VQA sea importante: elevar el papel de la comprensión de la imagen en la respuesta de las preguntas visuales | 1686 | |
| 2017 | CVPR | Saber cuándo mirar: atención adaptativa a través de un centinela visual para subtítulos | 1392 | Antorcha |
| 2017 | CVPRW | Análisis de acción humana 3D interpretable con redes convolucionales temporales | 539 | |
| 2017 | ICCV | Grad Cam: explicaciones visuales de redes profundas a través de la localización basada en gradientes | 13006 | Pytorch |
| 2017 | ICCV | Explicaciones interpretables de cajas negras por perturbación significativa | 1293 | Pytorch |
| 2017 | ICCV | Aprendizaje interpretable para autos autónomos visualizando la atención causal | 323 | |
| 2017 | ICCV | Comprender y comparar redes neuronales profundas para la clasificación de edad y género | 130 | |
| 2017 | ICCV | Aprender a desambiguar haciendo preguntas discriminativas | 26 | |
| 2017 | IJCAI | Ajustado por las razones correctas: capacitar modelos diferenciables restringiendo sus explicaciones | 429 | |
| 2017 | IJCAI | Comprender y mejorar las redes neuronales convolucionales a través de unidades lineales rectificadas concatenadas | 510 | Cafetería |
| 2017 | AAAI | Creciendo gráficos de piezas interpretables en convnets a través de aprendizaje de múltiples disparos | 67 | Matlab |
| 2017 | LCA | Visualizar y comprender la traducción del automóvil neuronal | 179 | |
| 2017 | EMNLP | Un marco Causeal para explicar las predicciones de los modelos de secuencia a secuencia de caja negra | 192 | |
| 2017 | Taller CVPR | Mirando debajo del capó: visualización de red neuronal profunda para interpretar resultados de análisis de imágenes de plana completa para polys coloridas | 47 | |
| 2017 | Encuesta | Interpretabilidad de los modelos de aprendizaje profundo: una encuesta de resultados | 345 | |
| 2017 | arxiv | SmoothGrad: eliminar el ruido agregando ruido | 1479 | |
| 2017 | arxiv | Interpretable y explore aproximaciones de modelos de caja negra | 259 | |
| 2017 | arxiv | Destilar una red neuronal en un árbol de decisión suave | 520 | Pytorch |
| 2017 | arxiv | Hacia redes neuronales profundas interpretables aprovechando ejemplos adversos | 111 | |
| 2017 | arxiv | Inteligencia artística explicable: comprensión, visualización e interpretación de modelos de aprendizaje profundo | 1279 | |
| 2017 | arxiv | Redes de explicación contextual | 77 | Pytorch |
| 2017 | arxiv | Desafíos para la transparencia | 142 | |
| 2017 | ACMSOPP | Deepxplore: pruebas automatizadas de Whitebox de sistemas de aprendizaje profundo | 1144 | |
| 2017 | Ceurw | ¿Qué significa realmente la IA explicable? Una nueva conceptualización de las perspectivas | 518 | |
| 2017 | TVCG | Activis: Exploración visual de modelos de redes neuronales profundas a escala de la industria | 346 | |
| 2016 | Neuros | Sintetizar las entradas preferidas para las neuronas en redes neuronales a través de redes de generadores profundos | 659 | Cafetería |
| 2016 | Neuros | Comprender el campo receptivo efectivo en redes neuronales convolucionales profundas | 1356 | |
| 2016 | CVPR | Invertir representaciones visuales con redes convolucionales | 626 | |
| 2016 | CVPR | Visualizar y comprender representaciones de textura profunda | 147 | |
| 2016 | CVPR | Análisis de clasificadores: vectores de pescadores y redes neuronales profundas | 191 | |
| 2016 | ECCV | Generando explicaciones visuales | 613 | Cafetería |
| 2016 | ECCV | Diseño de núcleos en redes neuronales convolucionales para la clasificación de imágenes | veinticuatro | |
| 2016 | ICML | Comprender y mejorar las redes neuronales convolucionales a través de unidades lineales rectificadas concatenadas | 510 | |
| 2016 | ICML | Visualizar y comparar Alexnet y VGG usando capas deconvolutivas | 126 | |
| 2016 | EMNLP | Racionalización de predicciones neuronales | 738 | Pytorch |
| 2016 | Ijcv | Visualización de redes neuronales convolucionales profundas utilizando preimpageres naturales | 508 | Matlab |
| 2016 | Ijcv | Visualizar las características de detección de objetos | 38 | Cafetería |
| 2016 | Kdd | ¿Por qué debería confiar en ti?: Explicar las predicciones de cualquier clasificador | 11742 | |
| 2016 | TVCG | Visualizar la actividad oculta de las redes neuronales artísticas | 309 | |
| 2016 | TVCG | Hacia un mejor análisis de redes neuronales convolucionales profundas | 474 | |
| 2016 | Naacl | Visualizar y comprender los modelos neuronales en la PNL | 650 | Antorcha |
| 2016 | arxiv | Comprender las redes neuronales a través de la borrado de la representación) | 492 | |
| 2016 | arxiv | Grad-Cam: ¿Por qué dijiste eso? | 398 | |
| 2016 | arxiv | Invertir la influencia del ruido y los distractores en la interpretación de las redes neuronales | 108 | |
| 2016 | arxiv | Explicaciones atenta: justificar decisiones y señalar la evidencia | 88 | |
| 2016 | arxiv | El mito de la interpretabilidad del modelo | 3786 | |
| 2016 | arxiv | Visualización de características multifacéticas: descubrir los diferentes tipos de características aprendidas por cada neurona en redes neuronales profundas | 317 | |
| 2015 | ICLR | Esforzarse por la simplicidad: la red convolucional | 4645 | Pytorch |
| 2015 | CVPR | Comprender las representaciones de imágenes profundas invirtiéndolas | 1942 | Matlab |
| 2015 | ICCV | Comprender las características profundas con imágenes generadas por computadora | 156 | Cafetería |
| 2015 | Taller ICML | Comprender las redes neuronales a través de una visualización profunda | 2038 | Flujo tensor |
| 2015 | Aas | Clases interpretables utilizando reglas y análisis bayesianos: construir un mejor modelo de predicción de accidente cerebrovascular | 749 | |
| 2014 | ECCV | Visualizar y comprender las redes convolucionales | 18604 | Pytorch |
| 2014 | ICLR | Redes convolucionales profundas: visualización de modelos de clasificación de imágenes y mapas de salivación | 6142 | Pytorch |
| 2013 | ICCV | Hoggles: Visualización de características de detección de objetos | 352 |