awesome_deep_learning_interpretability
1.0.0
近年のモデル説明に関する深い学習関連の論文。
参照番号でソートします
159の論文PDF(そのうち2つはScihubで見つける必要があります)がTencent Weiyunにアップロードされました。
時々更新されます。
| 年 | 出版 | 紙 | 引用 | コード |
|---|---|---|---|---|
| 2020 | CVPR | 知識を定量化することによる知識の蒸留を説明する | 81 | |
| 2020 | CVPR | 高周波コンポーネントは、畳み込みニューラルネットワークの一般化を説明するのに役立ちます | 289 | |
| 2020 | cvprw | スコアカム:畳み込み神経ネットワークのスコア加重視覚的説明 | 414 | Pytorch |
| 2020 | ICLR | ニューラルネットワークとそれ以降の知識の一貫性 | 28 | |
| 2020 | ICLR | プライバシー保護のための解釈可能な複雑な値ニューラルネットワーク | 23 | |
| 2019年 | ai | 芸術的知性の説明:社会科学からの洞察 | 3248 | |
| 2019年 | NMI | ハイステークスの決定のためのブラックボックスの機械学習モデルの説明をやめ、代わりに解釈可能なモデルを使用する | 3505 | |
| 2019年 | ニューリップ | モデルの不確実性を信頼できますか?データセットシフト下での予測不確実性の評価 | 1052 | - |
| 2019年 | ニューリップ | これはそのように見えます:解釈可能な画像認識のための深い学習 | 665 | Pytorch |
| 2019年 | ニューリップ | 深いニューラルネットワークにおける解釈方法のベンチマーク | 413 | |
| 2019年 | ニューリップ | ニューラルネットワークの視覚化のための完全な表現 | 155 | |
| 2019年 | ニューリップ | 説明の(in)忠実度と感度 | 226 | |
| 2019年 | ニューリップ | 自動概念ベースの説明に向けて | 342 | Tensorflow |
| 2019年 | ニューリップ | Cxplain:不確実性の下でのモデル解釈の因果的説明 | 133 | |
| 2019年 | CVPR | 決定ツリーを介してCNNを解釈します | 293 | |
| 2019年 | CVPR | 認識から認知へ:視覚的な常識的推論 | 544 | Pytorch |
| 2019年 | CVPR | 注意ブランチネットワーク:視覚的説明のための注意メカニズムの学習 | 371 | |
| 2019年 | CVPR | 畳み込みニューラルネットワークの解釈可能かつきめ細かい視覚的説明 | 116 | |
| 2019年 | CVPR | 補完的な例で説明することを学ぶ | 36 | |
| 2019年 | CVPR | モーション再構成から構造を反転させることによるシーンを明らかにします | 84 | Tensorflow |
| 2019年 | CVPR | ビデオの反事実性を予測することによるマルチモーダルの説明 | 26 | |
| 2019年 | CVPR | 深い畳み込みネットワーク解釈の回復力を視覚化します | 2 | |
| 2019年 | ICCV | U-CAM:不確実性ベースのクラスアクティベーションマップを使用した視覚的説明 | 61 | |
| 2019年 | ICCV | 解釈可能な顔認識に向けて | 66 | |
| 2019年 | ICCV | ヒントを得る:ビジョンと言語モデルをより根拠のあるものにするために説明を活用する | 163 | |
| 2019年 | ICCV | 極端な摂動と滑らかなマスクを介して深いネットワークを理解する | 276 | Pytorch |
| 2019年 | ICCV | 神経ネットワークを意味的かつ定量的に説明します | 49 | |
| 2019年 | ICLR | ニューラルネットワーク予測の階層解釈 | 111 | Pytorch |
| 2019年 | ICLR | ニューロンはどれほど重要ですか? | 101 | |
| 2019年 | ICLR | 解釈による視覚的説明:深いニューラルネットワークの視覚的フィードバック機能の改善 | 56 | |
| 2018年 | ICML | クエリとカウンターエクサムプルを使用して、再発性ニューラルネットワークからオートマトンを抽出する | 169 | Pytorch |
| 2019年 | ICML | NLPの深いニューラルモデルの深く統一された理解に向けて | 80 | Pytorch |
| 2019年 | icais | フィッシャーカーネルを使用したブラックボックス予測の解釈 | 80 | |
| 2019年 | acmfat | AIで説明を説明します | 558 | |
| 2019年 | aaai | ニューラルネットワークの解釈は脆弱です | 597 | Tensorflow |
| 2019年 | aaai | 分類器存在顕著性マップ抽出 | 23 | |
| 2019年 | aaai | 説明してもらえますか?明快な説明は、人間と協力的な画像の取得に役立ちます | 11 | |
| 2019年 | aaaiw | 神経ネットワークを説明するためのニューラルネットワークの教師のない学習 | 28 | |
| 2019年 | aaaiw | ネットワーク移植 | 4 | |
| 2019年 | CSUR | ブラックボックスモデルを説明する方法の調査 | 3088 | |
| 2019年 | jvcir | フィードフォワード設計による解釈可能な畳み込みニューラルネットワーク | 134 | ケラス |
| 2019年 | 説明してください | 救い方法の(un)信頼性 | 515 | |
| 2019年 | ACL | 注意は説明ではありません | 920 | |
| 2019年 | emnlp | 注意は説明ではありません | 667 | |
| 2019年 | arxiv | NLPタスク全体の注意解釈可能性 | 129 | |
| 2019年 | arxiv | 解釈可能なCNN | 2 | |
| 2018年 | ICLR | 深いニューラルネットワークのグラデーションベースの属性方法のより良い理解に向けて | 775 | |
| 2018年 | ICLR | ニューラルネットワークの説明方法を学ぶ:パターンネットとパターンアトリビューション | 342 | |
| 2018年 | ICLR | 一般化のための単一の方向の重要性について | 282 | Pytorch |
| 2018年 | ICLR | ニューラルネットワークの重みからの統計的相互作用の検出 | 148 | Pytorch |
| 2018年 | ICLR | 視覚的な質問に答えるための解釈可能なカウント | 55 | Pytorch |
| 2018年 | CVPR | 解釈可能な畳み込みニューラルネットワーク | 677 | |
| 2018年 | CVPR | どこを見るべきか教えてください:ガイド付き注意の推論ネットワーク | 454 | チェーン |
| 2018年 | CVPR | マルチモーダルの説明:決定を正当化し、証拠を指し示す | 349 | カフェ |
| 2018年 | CVPR | 設計による透明性:視覚的推論におけるパフォーマンスと解釈のギャップを閉じます | 180 | Pytorch |
| 2018年 | CVPR | net2vec:ディープニューラルネットワークのフィルターによって概念がエンコードされる方法の定量化と説明 | 186 | |
| 2018年 | CVPR | アクション認識のために深い表現から何を学びましたか? | 52 | |
| 2018年 | CVPR | 適切に行動することを学ぶ:画像からのアフォーダンスの予測と説明 | 57 | |
| 2018年 | CVPR | 視覚的な説明で人間の学習者にカテゴリーを教える | 64 | Pytorch |
| 2018年 | CVPR | ディープネットワークは何が好きですか? | 36 | |
| 2018年 | CVPR | 重要なデータルーティングパスを識別して、ニューラルネットワークを解釈します | 73 | Tensorflow |
| 2018年 | ECCV | 視覚的特徴の教師なし学習のための深いクラスタリング | 2056 | Pytorch |
| 2018年 | ECCV | スタックニューラルモジュールネットワークを介した説明可能なニューラルコンピューティング | 164 | Tensorflow |
| 2018年 | ECCV | 視覚的な説明を接地します | 184 | |
| 2018年 | ECCV | 自動運転車のテキストの説明 | 196 | |
| 2018年 | ECCV | 視覚的説明のための解釈可能な基底分解 | 228 | Pytorch |
| 2018年 | ECCV | 正確さを超えたコンベネットとイメージネット:間違いを理解し、バイアスを明らかにする | 147 | |
| 2018年 | ECCV | VQA-E:視覚的な質問に対する答えを説明、詳しく説明し、強化する | 71 | |
| 2018年 | ECCV | ニューロンを選択します。ニューロンの重要性を通じてドメインの知識を取り入れます | 41 | Pytorch |
| 2018年 | ECCV | 多様な特徴の視覚化は、深い神経ネットワークの初期層の侵略性を明らかにします | 23 | Tensorflow |
| 2018年 | ECCV | 説明:決定境界交差変換によるモデル説明 | 36 | |
| 2018年 | ICML | フィーチャ属性を超えて解釈可能性:コンセプトアクティブ化ベクトルを使用した定量テスト | 1130 | Tensorflow |
| 2018年 | ICML | 説明することを学ぶ:モデル解釈に関する情報理論的視点 | 421 | |
| 2018年 | ACL | モデルは質問を理解しましたか? | 171 | Tensorflow |
| 2018年 | 著者 | 深い学習のための視覚的解釈:調査 | 731 | |
| 2018年 | ニューリップ | Sanity Checkは唾液分泌マップをチェックします | 1353 | |
| 2018年 | ニューリップ | 行方不明に基づく説明:適切なネガとの反対の説明に向けて | 443 | Tensorflow |
| 2018年 | ニューリップ | 自己検出ニューラルネットワークを使用した堅牢な解釈に向けて | 648 | Pytorch |
| 2018年 | ニューリップ | 攻撃は解釈可能性を満たしています:敵対的なサンプルの属性ステアの検出 | 142 | |
| 2018年 | ニューリップ | Deeppink:深いニューラルネットワークでの再現性のある機能選択 | 125 | ケラス |
| 2018年 | ニューリップ | 深いニューラルネットワークを説明するための代表ポイント選択 | 182 | Tensorflow |
| 2018年 | ニューリップスワークショップ | sincnetを使用した解釈可能な畳み込みフィルター | 97 | |
| 2018年 | aaai | アンカー:高精度モデルに依存しない説明 | 1517 | |
| 2018年 | aaai | 入力勾配を正規化することにより、深いニューラルネットワークの敵対的な堅牢性と解釈を改善する | 537 | Tensorflow |
| 2018年 | aaai | プロトタイプによるケースベースの推論のための深い学習:その予測を説明するニューラルネットワーク | 396 | Tensorflow |
| 2018年 | aaai | 説明グラフを介してCNNの知識を解釈します | 199 | マトラブ |
| 2018年 | aaai | データセットバイアスに関するCNN表現を調べる | 88 | |
| 2018年 | WACV | Grad-CAM ++:深い畳み込みネットワークの一般化された勾配ベースの視覚的説明 | 1459 | |
| 2018年 | IJCV | 励起バックプロップによるトップダウン神経注意 | 778 | |
| 2018年 | Tpami | ネットワーク解剖を介した深い視覚表現の解釈 | 252 | |
| 2018年 | DSP | 深いニューラルネットワークを解釈および理解する方法 | 2046 | |
| 2018年 | アクセス | ブラックボックスの中を覗く:説明可能な人工知能に関する調査(XAI) | 3110 | |
| 2018年 | ジェア | 騒々しいデータから説明ルールを学ぶ | 440 | Tensorflow |
| 2018年 | ミプロ | 説明可能な芸術的知性:調査 | 794 | |
| 2018年 | BMVC | 上昇:ブラックボックスモデルの説明のためのランダム化入力サンプリング | 657 | |
| 2018年 | arxiv | 蒸留とコンピア:透明なモデル蒸留を使用したブラックボックスモデルの監査 | 194 | |
| 2018年 | arxiv | モデルの解釈の操作と測定 | 496 | |
| 2018年 | arxiv | 畳み込みニューラルネットワークが世界を見る方法 - 畳み込みニューラルネットワークの視覚化方法の調査 | 211 | |
| 2018年 | arxiv | アブレーションを介してCNNSにおける個々のユニットの重要性を再検討する | 93 | |
| 2018年 | arxiv | 内部ニューロンの重要性の計算的に効率的な測定 | 10 | |
| 2017年 | ICML | 影響力関数を介したブラックボックス予測の理解 | 2062 | Pytorch |
| 2017年 | ICML | ディープネットワークの公理的属性 | 3654 | ケラス |
| 2017年 | ICML | 活性化の差を伝播することで重要な機能を学習します | 2835 | |
| 2017年 | ICLR | 深いニューラルネットワークの決定の視覚化:予測の違い分析 | 674 | カフェ |
| 2017年 | ICLR | 深いニューラルネットワークの多くを探索します | 34 | |
| 2017年 | ニューリップ | モデルの予測を解釈するための統一されたアプローチ | 11511 | |
| 2017年 | ニューリップ | ブラックボックスクラスのリアルタイムイメージの顕著性 | 483 | Pytorch |
| 2017年 | ニューリップ | SVCCA:深い学習ダイナミクスと解釈性のための特異ベクトル標準相関分析 | 473 | |
| 2017年 | CVPR | アクティブな質問回答によるCNNSからのオブジェクト部品をマイニングします | 29 | |
| 2017年 | CVPR | ネットワーク解剖:深い視覚表現の解釈可能性の定量化 | 1254 | |
| 2017年 | CVPR | セマンティック情報を使用した深いニューラルネットワークの解釈可能性の向上 | 118 | |
| 2017年 | CVPR | MDNET:意味的かつ視覚的に解釈可能な医療画像診断ネットワーク | 307 | トーチ |
| 2017年 | CVPR | VQA物質でVを作成する:視覚的な質問に答える画像理解の役割を高める | 1686 | |
| 2017年 | CVPR | いつ見るべきかを知る:画像キャプションのための視覚的なセンチネルを介して適応的な注意 | 1392 | トーチ |
| 2017年 | cvprw | 時間的畳み込みネットワークを使用した解釈可能な3Dヒューマンアクション分析 | 539 | |
| 2017年 | ICCV | Grad-Cam:グラデーションベースのローカリゼーションによる深いネットワークからの視覚的説明 | 13006 | Pytorch |
| 2017年 | ICCV | 意味のある摂動によるブラックボックスの解釈可能な説明 | 1293 | Pytorch |
| 2017年 | ICCV | 因果関係を視覚化することにより、自動運転車の解釈可能な学習 | 323 | |
| 2017年 | ICCV | 年齢と性別分類のための深いニューラルネットワークを理解して比較する | 130 | |
| 2017年 | ICCV | 差別的な質問をすることによって乱雑になることを学ぶ | 26 | |
| 2017年 | ijcai | 適切な理由で正しい:説明を制約することで微分可能なモデルをトレーニングする | 429 | |
| 2017年 | ijcai | 連結された整流線形ユニットを介した畳み込みニューラルネットワークの理解と改善 | 510 | カフェ |
| 2017年 | aaai | マルチショット学習を介したコンベネット上の解釈可能なパーツグラフの成長 | 67 | マトラブ |
| 2017年 | ACL | 神経機械翻訳の視覚化と理解 | 179 | |
| 2017年 | emnlp | ブラックボックスシーケンスからシーケンスモデルの予測を説明するための原因となるフレームワーク | 192 | |
| 2017年 | CVPRワークショップ | ボンネットの下を見る:カラフルなポリスの様子分析の結果を解釈するための深いニューラルネットワークの視覚化 | 47 | |
| 2017年 | 調査 | 深い学習モデルの解釈可能性:結果の調査 | 345 | |
| 2017年 | arxiv | SmoothGrad:ノイズを追加してノイズを除去します | 1479 | |
| 2017年 | arxiv | ブラックボックスモデルの近似を解釈し、探索します | 259 | |
| 2017年 | arxiv | ニューラルネットワークをソフトな決定ツリーに蒸留します | 520 | Pytorch |
| 2017年 | arxiv | 敵意の例を活用することにより、解釈可能な深い神経ネットワークに向けて | 111 | |
| 2017年 | arxiv | 説明可能な芸術的知性:深い学習モデルの理解、視覚化、解釈 | 1279 | |
| 2017年 | arxiv | コンテキスト説明ネットワーク | 77 | Pytorch |
| 2017年 | arxiv | 透明性への課題 | 142 | |
| 2017年 | acmsopp | DeepXPlore:ディープラーニングシステムの自動ホワイトボックステスト | 1144 | |
| 2017年 | ceurw | 説明可能なAIとはどういう意味ですか?視点の新しい概念化 | 518 | |
| 2017年 | TVCG | Activis:業界規模の深いニューラルネットワークモデルの視覚的調査 | 346 | |
| 2016年 | ニューリップ | ディープジェネレーターネットワークを介したニューラルネットワークのニューロンの優先入力を合成する | 659 | カフェ |
| 2016年 | ニューリップ | 深い畳み込みニューラルネットワークにおける効果的な受容フィールドを理解する | 1356 | |
| 2016年 | CVPR | 畳み込みネットワークで視覚表現を反転させます | 626 | |
| 2016年 | CVPR | 深いテクスチャ表現の視覚化と理解 | 147 | |
| 2016年 | CVPR | 分析分析:フィッシャーベクターと深いニューラルネットワーク | 191 | |
| 2016年 | ECCV | 視覚的な説明を生成します | 613 | カフェ |
| 2016年 | ECCV | 画像分類のための畳み込みニューラルネットワークにおけるカーネルの設計 | 24 | |
| 2016年 | ICML | 連結された整流線形ユニットを介した畳み込みニューラルネットワークの理解と改善 | 510 | |
| 2016年 | ICML | デコンボリューション層を使用して、AlexNetとVGGの視覚化と比較 | 126 | |
| 2016年 | emnlp | 神経予測の合理化 | 738 | Pytorch |
| 2016年 | IJCV | 自然な前イメージを使用して、深い畳み込みニューラルネットワークを視覚化します | 508 | マトラブ |
| 2016年 | IJCV | オブジェクトの検出機能を視覚化します | 38 | カフェ |
| 2016年 | KDD | なぜ私はあなたを信頼する必要があるのですか?:分類器の予測を説明する | 11742 | |
| 2016年 | TVCG | 芸術的なニューラルネットワークの隠されたアクティビティを視覚化する | 309 | |
| 2016年 | TVCG | 深い畳み込みニューラルネットワークのより良い分析に向けて | 474 | |
| 2016年 | Naacl | NLPのニューラルモデルの視覚化と理解 | 650 | トーチ |
| 2016年 | arxiv | 表現の消去を通じてニューラルネットワークを理解する) | 492 | |
| 2016年 | arxiv | Grad-Cam:なぜそれを言ったのですか? | 398 | |
| 2016年 | arxiv | ニューラルネットワークの解釈に対する騒音とディストラクタの影響を投資する | 108 | |
| 2016年 | arxiv | 丁寧な説明:決定を正当化し、証拠を指し示します | 88 | |
| 2016年 | arxiv | モデルの解釈可能性の神話 | 3786 | |
| 2016年 | arxiv | 多面的な機能視覚化:深いニューラルネットワークで各ニューロンによって学習されたさまざまなタイプの機能を明らかにする | 317 | |
| 2015年 | ICLR | シンプルさを求めて努力:すべての畳み込みネット | 4645 | Pytorch |
| 2015年 | CVPR | それらを反転させることにより、深い画像表現を理解する | 1942年 | マトラブ |
| 2015年 | ICCV | コンピューターで生成された画像で深い特徴を理解する | 156 | カフェ |
| 2015年 | ICMLワークショップ | 深い視覚化によるニューラルネットワークの理解 | 2038 | Tensorflow |
| 2015年 | AAS | ルールとベイジアン分析を使用した解釈可能なクラス:より良いストローク予測モデルの構築 | 749 | |
| 2014年 | ECCV | 畳み込みネットワークの視覚化と理解 | 18604 | Pytorch |
| 2014年 | ICLR | 内側の内側の畳み込みネットワーク:画像分類モデルと唾液分泌マップを視覚化する | 6142 | Pytorch |
| 2013年 | ICCV | Hoggles:オブジェクト検出機能を視覚化します | 352 |