awesome_deep_learning_interpretability
1.0.0
최근 몇 년간 모델 설명에 대한 딥 러닝 관련 논문.
참조 번호별로 정렬하십시오
159 개의 논문 PDF (2 명은 Scihub에서 찾아야 함)를 Tencent Weiyun에 업로드했습니다.
때때로 업데이트되었습니다.
| 년도 | 출판 | 종이 | 소환 | 암호 |
|---|---|---|---|---|
| 2020 | CVPR | 지식을 정량화하여 지식 증류를 설명합니다 | 81 | |
| 2020 | CVPR | 고주파 구성 요소는 컨볼 루션 신경 네트워크의 일반화를 설명하는 데 도움이됩니다. | 289 | |
| 2020 | CVPRW | Score-CAM : Convolutional Neural Networks에 대한 점수 가중 시각적 설명 | 414 | Pytorch |
| 2020 | ICLR | 신경망과 그 이상의 지식 일관성 | 28 | |
| 2020 | ICLR | 개인 정보 보호를위한 해석 가능한 복잡한 값 신경망 | 스물 셋 | |
| 2019 | 일체 포함 | 예술 지능의 설명 : 사회 과학의 통찰력 | 3248 | |
| 2019 | NMI | 높은 스테이크 결정을위한 블랙 박스 머신 러닝 모델 설명 중지 및 대신 해석 가능한 모델을 사용하십시오. | 3505 | |
| 2019 | 신경관 | 모델의 불확실성을 믿을 수 있습니까? 데이터 세트 이동에서 예측 불확실성 평가 | 1052 | - |
| 2019 | 신경관 | 해석 가능한 이미지 인식을위한 딥 러닝 | 665 | Pytorch |
| 2019 | 신경관 | 깊은 신경망의 해석 방법에 대한 벤치 마크 | 413 | |
| 2019 | 신경관 | 신경망 시각화를위한 전체 그라디언트 표현 | 155 | |
| 2019 | 신경관 | 설명의 충실도와 민감도에 | 226 | |
| 2019 | 신경관 | 자동 개념 기반 설명을 향해 | 342 | 텐서 플로 |
| 2019 | 신경관 | cxplain : 불확실성 하의 모델 해석에 대한 인과 적 설명 | 133 | |
| 2019 | CVPR | 의사 결정 트리를 통해 CNN을 해석합니다 | 293 | |
| 2019 | CVPR | 인식에서 인식으로 : 시각적 상식 추론 | 544 | Pytorch |
| 2019 | CVPR | 주의 지사 네트워크 : 시각적 설명을위한주의 메커니즘 학습 | 371 | |
| 2019 | CVPR | Convolutional Neural Networks에 대한 해석 가능하고 세밀한 시각적 설명 | 116 | |
| 2019 | CVPR | 보완적인 사례로 설명하는 법을 배우는 학습 | 36 | |
| 2019 | CVPR | 모션 재구성에서 구조를 반전하여 장면을 드러냅니다 | 84 | 텐서 플로 |
| 2019 | CVPR | 비디오의 반대 능력을 예측하여 멀티 모달 설명 | 26 | |
| 2019 | CVPR | 깊은 컨볼 루션 네트워크 해석의 탄력성을 시각화합니다 | 2 | |
| 2019 | ICCV | U-CAM : 불확실성 기반 클래스 활성화 맵을 사용한 시각적 설명 | 61 | |
| 2019 | ICCV | 해석 가능한 얼굴 인식을 향해 | 66 | |
| 2019 | ICCV | 힌트를 취하는 : 비전과 언어 모델을보다 근거로 만들기 위해 설명을 활용 | 163 | |
| 2019 | ICCV | 극한의 섭동과 부드러운 마스크를 통해 깊은 네트워크를 이해합니다 | 276 | Pytorch |
| 2019 | ICCV | 신경 네트워크를 의미 적으로 그리고 정량적으로 설명합니다 | 49 | |
| 2019 | ICLR | 신경망 예측에 대한 계층 적 해석 | 111 | Pytorch |
| 2019 | ICLR | 뉴런은 얼마나 중요합니까? | 101 | |
| 2019 | ICLR | 해석에 의한 시각적 설명 : 심층 신경망의 시각적 피드백 기능 향상 | 56 | |
| 2018 | ICML | 쿼리 및 반례를 사용하여 반복 신경 네트워크에서 오토마타 추출 | 169 | Pytorch |
| 2019 | ICML | NLP의 깊은 신경 모델에 대한 깊고 통일 된 이해를 향해 | 80 | Pytorch |
| 2019 | ICAIS | Fisher 커널을 사용하여 블랙 박스 예측 해석 | 80 | |
| 2019 | ACMFAT | AI의 설명 설명 | 558 | |
| 2019 | AAAI | 신경망의 해석은 깨지기 쉽습니다 | 597 | 텐서 플로 |
| 2019 | AAAI | 분류기-비가 내 성실도 맵 추출 | 스물 셋 | |
| 2019 | AAAI | 설명해 주시겠습니까? 명쾌한 설명은 인간 AAI 협업 이미지 검색에 도움이됩니다 | 11 | |
| 2019 | aaaiw | 신경망을 설명하기위한 신경망에 대한 감독되지 않은 학습 | 28 | |
| 2019 | aaaiw | 네트워크 이식 | 4 | |
| 2019 | CSUR | 블랙 박스 모델을 설명하는 방법에 대한 조사 | 3088 | |
| 2019 | JVCIR | 피드 포워드 설계를 통한 해석 가능한 컨볼 루션 신경 네트워크 | 134 | 케라 |
| 2019 | 설명 | 타액 방법의 (un) 신뢰성 | 515 | |
| 2019 | ACL | 주의는 설명이 아닙니다 | 920 | |
| 2019 | emnlp | 주의는 설명이 아닙니다 | 667 | |
| 2019 | arxiv | NLP 작업에 대한주의 해석 가능성 | 129 | |
| 2019 | arxiv | 해석 가능한 CNN | 2 | |
| 2018 | ICLR | 심층 신경망에 대한 그라디언트 기반 속성 방법에 대한 이해를 향해 | 775 | |
| 2018 | ICLR | 신경망을 설명하는 방법 학습 : PatternNet 및 PatternAttribution | 342 | |
| 2018 | ICLR | 일반화를위한 단일 방향의 중요성 | 282 | Pytorch |
| 2018 | ICLR | 신경망 가중치에서 통계적 상호 작용을 감지합니다 | 148 | Pytorch |
| 2018 | ICLR | 시각적 질문에 대한 해석 가능한 계산 | 55 | Pytorch |
| 2018 | CVPR | 해석 가능한 컨볼 루션 신경 네트워크 | 677 | |
| 2018 | CVPR | 어디서 볼 것인지 알려주세요 : 안내주의 추론 네트워크 | 454 | 체인 |
| 2018 | CVPR | 멀티 모달 설명 : 결정을 정당화하고 증거를 가리키는 것 | 349 | 카페 |
| 2018 | CVPR | 설계에 의한 투명성 : 시각적 추론에서 성능과 해석 사이의 격차를 닫습니다. | 180 | Pytorch |
| 2018 | CVPR | Net2Vec : 깊은 신경망에서 필터에 의해 개념이 어떻게 인코딩되는지 정량화 및 설명 | 186 | |
| 2018 | CVPR | 행동 인식을 위해 깊은 표현에서 무엇을 배웠습니까? | 52 | |
| 2018 | CVPR | 제대로 행동하는 법 배우기 : 이미지의 여유를 예측하고 설명 | 57 | |
| 2018 | CVPR | 시각적 설명을 가진 인간 학습자에게 카테고리를 가르치고 있습니다 | 64 | Pytorch |
| 2018 | CVPR | 딥 네트워크는 무엇을보고 싶어합니까? | 36 | |
| 2018 | CVPR | 중요한 데이터 라우팅 경로를 식별하여 신경망을 해석합니다 | 73 | 텐서 플로 |
| 2018 | ECCV | 시각적 특징에 대한 감독되지 않은 학습을위한 깊은 클러스터링 | 2056 | Pytorch |
| 2018 | ECCV | 스택 신경 모듈 네트워크를 통한 설명 가능한 신경 컴퓨팅 | 164 | 텐서 플로 |
| 2018 | ECCV | 시각적 설명을 기반으로합니다 | 184 | |
| 2018 | ECCV | 자율 주행 차량에 대한 텍스트 설명 | 196 년 | |
| 2018 | ECCV | 시각적 설명을위한 해석 가능한 기본 분해 | 228 | Pytorch |
| 2018 | ECCV | 정확성을 넘어 콩과 imagenet : 실수 이해 및 편견을 발견 | 147 | |
| 2018 | ECCV | vqa-e : 시각적 질문에 대한 답변, 정교함 및 향상 | 71 | |
| 2018 | ECCV | 신경을 선택하십시오 : Neuron-importance를 통해 도메인 지식을 통합하십시오 | 41 | Pytorch |
| 2018 | ECCV | 다양한 기능 시각화는 심층 신경망의 초기 층에서 불변량을 드러냅니다. | 스물 셋 | 텐서 플로 |
| 2018 | ECCV | explaingan : 결정 경계 교차 변환을 통한 모델 설명 | 36 | |
| 2018 | ICML | 기능 속성 이외의 해석 가능성 : 개념 활성화 벡터를 사용한 정량 테스트 | 1130 | 텐서 플로 |
| 2018 | ICML | 설명 학습 : 모델 해석에 대한 정보 이론적 관점 | 421 | |
| 2018 | ACL | 모델이 질문을 이해 했습니까? | 171 | 텐서 플로 |
| 2018 | 유충 | 딥 러닝에 대한 시각적 해석 : 설문 조사 | 731 | |
| 2018 | 신경관 | 타액 분비지도에 대한 세력 검사 | 1353 | |
| 2018 | 신경관 | 누락 된 것에 기반한 설명 : 관련 부정과의 반대 설명을 향해 | 443 | 텐서 플로 |
| 2018 | 신경관 | 자기 설명 신경망으로 강력한 해석을 향해 | 648 | Pytorch |
| 2018 | 신경관 | 공격은 해석 가능성을 충족시킵니다 | 142 | |
| 2018 | 신경관 | DeepPink : 심층 신경망에서 재현 가능한 기능 선택 | 125 | 케라 |
| 2018 | 신경관 | 깊은 신경망을 설명하기위한 대표자 포인트 선택 | 182 | 텐서 플로 |
| 2018 | Neurips Workshop | Sincnet을 사용한 해석 가능한 컨볼 루션 필터 | 97 | |
| 2018 | AAAI | 앵커 : 고정밀 모델에 대한 설명 | 1517 | |
| 2018 | AAAI | 입력 기울기를 규칙화하여 깊은 신경 네트워크의 적대적 견고성 및 해석 개선 | 537 | 텐서 플로 |
| 2018 | AAAI | 프로토 타입을 통한 사례 기반 추론에 대한 딥 러닝 : 예측을 설명하는 신경망 | 396 | 텐서 플로 |
| 2018 | AAAI | 설명 그래프를 통한 CNN 지식 해석 | 199 | MATLAB |
| 2018 | AAAI | 데이터 세트 바이어스와 관련하여 CNN 표현을 검사합니다 | 88 | |
| 2018 | WACV | Grad-CAM ++ : 심층 컨볼 루션 네트워크에 대한 일반화 된 그라디언트 기반 시각적 설명 | 1459 | |
| 2018 | IJCV | 흥분 백작에 의한 하향식 신경주의 | 778 | |
| 2018 | tpami | 네트워크 해부를 통해 깊은 시각적 표현을 해석합니다 | 252 | |
| 2018 | DSP | 깊은 신경망을 해석하고 이해하는 방법 | 2046 | |
| 2018 | 입장 | 블랙 박스 내부의 엿보기 : 설명 가능한 인공 지능에 대한 설문 조사 (XAI) | 3110 | |
| 2018 | 제이어 | 시끄러운 데이터에서 설명 규칙 학습 | 440 | 텐서 플로 |
| 2018 | 미트로 | 설명 가능한 예술적 지능 : 설문 조사 | 794 | |
| 2018 | BMVC | 상승 : 블랙 박스 모델의 설명을위한 무작위 입력 샘플링 | 657 | |
| 2018 | arxiv | 증류 및 공동 : 투명 모델 증류를 사용하여 블랙 박스 모델을 감사합니다 | 194 | |
| 2018 | arxiv | 모델 해석 조작 및 측정 | 496 | |
| 2018 | arxiv | Convolutional Neural Network가 어떻게 세계를 참조하십시오-컨볼 루션 신경 네트워크 시각화 방법의 조사 | 211 | |
| 2018 | arxiv | 절제를 통해 CNN에서 개별 단위의 중요성을 다시 방문 | 93 | |
| 2018 | arxiv | 내부 뉴런 중요성의 계산 효율적인 측정 | 10 | |
| 2017 | ICML | 영향 함수를 통한 블랙 박스 예측 이해 | 2062 | Pytorch |
| 2017 | ICML | 깊은 네트워크의 공리 속성 | 3654 | 케라 |
| 2017 | ICML | 활성화 차별화를 전파함으로써 중요한 기능을 학습합니다 | 2835 | |
| 2017 | ICLR | 깊은 신경망 결정 시각화 : 예측 차이 분석 | 674 | 카페 |
| 2017 | ICLR | 깊은 신경망에서 많은 것을 탐험합니다 | 34 | |
| 2017 | 신경관 | 모델 예측 해석에 대한 통합 된 접근법 | 11511 | |
| 2017 | 신경관 | 블랙 박스 클래스의 실시간 이미지 돌출 | 483 | Pytorch |
| 2017 | 신경관 | SVCCA : 딥 러닝 역학 및 해석 가능성에 대한 단수 벡터 표준 상관 분석 | 473 | |
| 2017 | CVPR | 활성 질문 응답을 통해 CNN의 객체 부품을 채굴합니다 | 29 | |
| 2017 | CVPR | 네트워크 해부 : 깊은 시각적 표현의 해석 가능성을 정량화합니다 | 1254 | |
| 2017 | CVPR | 시맨틱 정보로 깊은 신경망의 해석 가능성을 향상시킵니다 | 118 | |
| 2017 | CVPR | MDNet : 의미 적으로 시각적으로 해석 가능한 의료 이미지 진단 네트워크 | 307 | 토치 |
| 2017 | CVPR | VQA 물질에서 V를 만들기 : 시각적 질문에 대한 이미지 이해의 역할 향상 | 1686 | |
| 2017 | CVPR | 시기 지식 : 이미지 캡션을위한 비주얼 센티넬을 통한 적응 적주의 | 1392 | 토치 |
| 2017 | CVPRW | 시간적 컨볼 루션 네트워크를 통한 해석 가능한 3D 인간 행동 분석 | 539 | |
| 2017 | ICCV | Grad-CAM : 그라디언트 기반 현지화를 통한 딥 네트워크의 시각적 설명 | 13006 | Pytorch |
| 2017 | ICCV | 의미있는 섭동에 의한 블랙 박스에 대한 해석 가능한 설명 | 1293 | Pytorch |
| 2017 | ICCV | 인과 적 관심을 시각화하여 자율 주행 차에 대한 해석 가능한 학습 | 323 | |
| 2017 | ICCV | 연령 및 성별 분류에 대한 심층 신경망 이해 및 비교 | 130 | |
| 2017 | ICCV | 차별적 인 질문을함으로써 명백한 학습 | 26 | |
| 2017 | ijcai | 올바른 이유에 대한 권리 : 설명을 제한하여 차별화 가능한 모델을 훈련 | 429 | |
| 2017 | ijcai | 연결된 정류 된 선형 단위를 통한 컨볼 루션 신경 네트워크 이해 및 개선 | 510 | 카페 |
| 2017 | AAAI | 멀티 샷 학습을 통해 콩과의 해석 가능한 부품 그래프 증가 | 67 | MATLAB |
| 2017 | ACL | 신경 기계 번역 시각화 및 이해 | 179 | |
| 2017 | emnlp | 블랙 박스 서열-시퀀스 모델의 예측을 설명하기위한 인과 프레임 워크 | 192 | |
| 2017 | CVPR 워크숍 | 후드 아래보기 : 다채로운 폴리에 대한 전체 슬라이드 이미지 분석 결과를 해석하기위한 깊은 신경망 시각화 | 47 | |
| 2017 | 조사 | 딥 러닝 모델의 해석 가능성 : 결과 조사 | 345 | |
| 2017 | arxiv | 스무드 그레이드 : 노이즈를 추가하여 노이즈 제거 | 1479 | |
| 2017 | arxiv | 해석 가능하고 블랙 박스 모델의 근사치를 탐색합니다 | 259 | |
| 2017 | arxiv | 신경망을 부드러운 의사 결정 트리로 증류합니다 | 520 | Pytorch |
| 2017 | arxiv | 적대적인 사례를 활용하여 해석 가능한 깊은 신경망을 향해 | 111 | |
| 2017 | arxiv | 설명 가능한 예술 지능 : 딥 러닝 모델 이해, 시각화 및 해석 | 1279 | |
| 2017 | arxiv | 상황에 맞는 설명 네트워크 | 77 | Pytorch |
| 2017 | arxiv | 투명성에 대한 도전 | 142 | |
| 2017 | acmsopp | DeepXplore : 딥 러닝 시스템의 자동 화이트 박스 테스트 | 1144 | |
| 2017 | ceurw | 설명 가능한 AI는 실제로 무엇을 의미합니까? 관점의 새로운 개념화 | 518 | |
| 2017 | TVCG | Activis : 산업 규모의 깊은 신경 네트워크 모델의 시각적 탐구 | 346 | |
| 2016 | 신경관 | 심층 발전기 네트워크를 통해 신경망에서 뉴런에 대한 선호되는 입력 합성 | 659 | 카페 |
| 2016 | 신경관 | 깊은 컨볼 루션 신경 네트워크에서 효과적인 수용 분야 이해 | 1356 | |
| 2016 | CVPR | 컨볼 루션 네트워크로 시각적 표현을 역전시킵니다 | 626 | |
| 2016 | CVPR | 깊은 텍스처 표현 시각화 및 이해 | 147 | |
| 2016 | CVPR | 분류기 분석 : Fisher 벡터 및 심층 신경망 | 191 | |
| 2016 | ECCV | 시각적 설명을 생성합니다 | 613 | 카페 |
| 2016 | ECCV | 이미지 분류를위한 컨볼 루션 신경 네트워크에서 커널 설계 | 24 | |
| 2016 | ICML | 연결된 정류 된 선형 단위를 통한 컨볼 루션 신경 네트워크 이해 및 개선 | 510 | |
| 2016 | ICML | Deconvolutional 레이어를 사용하여 Alexnet 및 VGG를 시각화하고 비교합니다 | 126 | |
| 2016 | emnlp | 합리화 신경 예측 | 738 | Pytorch |
| 2016 | IJCV | 천연 사전 이미지를 사용하여 깊은 컨볼 루션 신경망을 시각화합니다 | 508 | MATLAB |
| 2016 | IJCV | 객체 감지 기능 시각화 | 38 | 카페 |
| 2016 | KDD | 내가 당신을 믿어야하는 이유는 무엇입니까? : 분류기의 예측을 설명 | 11742 | |
| 2016 | TVCG | 예술적 신경망의 숨겨진 활동을 시각화합니다 | 309 | |
| 2016 | TVCG | 깊은 컨볼 루션 신경 네트워크의 더 나은 분석을 향해 | 474 | |
| 2016 | NaaCl | NLP의 신경 모델 시각화 및 이해 | 650 | 토치 |
| 2016 | arxiv | 표현 삭제를 통한 신경망 이해) | 492 | |
| 2016 | arxiv | Grad-Cam : 왜 그렇게 말 했나요? | 398 | |
| 2016 | arxiv | 신경망의 해석에 소음과 산만 자의 영향을 투자 | 108 | |
| 2016 | arxiv | 세심한 설명 : 결정을 정당화하고 증거를 가리키는 것 | 88 | |
| 2016 | arxiv | 모델 해석 가능성의 신화 | 3786 | |
| 2016 | arxiv | 다면적 기능 시각화 : 깊은 신경 네트워크에서 각 뉴런에서 배운 다양한 유형의 기능을 밝혀냅니다. | 317 | |
| 2015 | ICLR | 단순성을위한 노력 : 모든 컨볼 루션 그물 | 4645 | Pytorch |
| 2015 | CVPR | 반전시켜 깊은 이미지 표현을 이해합니다 | 1942 | MATLAB |
| 2015 | ICCV | 컴퓨터 생성 이미지로 깊은 기능을 이해합니다 | 156 | 카페 |
| 2015 | ICML 워크숍 | 깊은 시각화를 통해 신경망을 이해합니다 | 2038 | 텐서 플로 |
| 2015 | AAS | 규칙 및 베이지안 분석을 사용한 해석 가능한 클래스 : 더 나은 스트로크 예측 모델 구축 | 749 | |
| 2014 | ECCV | 컨볼 루션 네트워크 시각화 및 이해 | 18604 | Pytorch |
| 2014 | ICLR | 내부 컨볼 루션 네트워크 : 이미지 분류 모델 및 타액 분비지도 시각 | 6142 | Pytorch |
| 2013 | ICCV | 호글러리 : 객체 감지 기능 시각화 | 352 |