Item type |
SIG Technical Reports(1) |
公開日 |
2021-02-25 |
タイトル |
|
|
タイトル |
深層学習モデルの判断根拠を利用した 偏りを持つデータセットに対する精度向上 |
タイトル |
|
|
言語 |
en |
|
タイトル |
Improving Accuracy on Biased Datasets via Explanations of Deep Neural Networks |
言語 |
|
|
言語 |
jpn |
キーワード |
|
|
主題Scheme |
Other |
|
主題 |
セッション5-2 |
資源タイプ |
|
|
資源タイプ識別子 |
http://purl.org/coar/resource_type/c_18gh |
|
資源タイプ |
technical report |
著者所属 |
|
|
|
NTT ソフトウェアイノベーションセンタ |
著者所属 |
|
|
|
NTT ソフトウェアイノベーションセンタ |
著者所属(英) |
|
|
|
en |
|
|
Software Innovation Center, NTT |
著者所属(英) |
|
|
|
en |
|
|
Software Innovation Center, NTT |
著者名 |
足立, 一樹
山口, 真弥
|
著者名(英) |
Kazuki, Adachi
Shin’ya, Yamaguchi
|
論文抄録 |
|
|
内容記述タイプ |
Other |
|
内容記述 |
深層学習の訓練データセットは多様な特徴を持ったデータを含むことが望ましいが,実際にはタスクに無関係な特徴の偏りを持つデータセットが作られやすい.このため,タスクに関係のない特徴に偏りを持つデータセットで学習したモデルは入力データ分布の変化に対して精度が低下しやすい問題がある.本稿ではこの問題への対処を目的として,画像変換手法によるモデルが着目するべき特徴の検出と,判断根拠を活用して着目するべき特徴に対して重み付けする手法を提案する. |
論文抄録(英) |
|
|
内容記述タイプ |
Other |
|
内容記述 |
Although it is desirable that training datasets for deep learning have diverse features, datasets that have biased features irrelevant to target tasks are likely to be created actually. Deep learning models trained on such biased datasets degrade its accuracy toward input distribution shift. To tackle this problem, we propose Independent Feature Focusing (IFF), the method to detect features on which models should focus and regularize its attribution to improve accuracy. |
書誌レコードID |
|
|
収録物識別子タイプ |
NCID |
|
収録物識別子 |
AA11131797 |
書誌情報 |
研究報告コンピュータビジョンとイメージメディア(CVIM)
巻 2021-CVIM-225,
号 39,
p. 1-6,
発行日 2021-02-25
|
ISSN |
|
|
収録物識別子タイプ |
ISSN |
|
収録物識別子 |
2188-8701 |
Notice |
|
|
|
SIG Technical Reports are nonrefereed and hence may later appear in any journals, conferences, symposia, etc. |
出版者 |
|
|
言語 |
ja |
|
出版者 |
情報処理学会 |