Item type |
Symposium(1) |
公開日 |
2017-10-16 |
タイトル |
|
|
タイトル |
深層学習におけるAdversarial Trainingによる副作用とその緩和策 |
タイトル |
|
|
言語 |
en |
|
タイトル |
Negative Side Effect of Adversarial Training in Deep Learning and Its Mitigation |
言語 |
|
|
言語 |
jpn |
キーワード |
|
|
主題Scheme |
Other |
|
主題 |
機械学習,ニューラルネットワーク,Adversarial Examples,Adversarial Training |
資源タイプ |
|
|
資源タイプ識別子 |
http://purl.org/coar/resource_type/c_5794 |
|
資源タイプ |
conference paper |
著者所属 |
|
|
|
東京大学生産技術研究所 |
著者所属 |
|
|
|
産業技術総合研究所 |
著者所属 |
|
|
|
東京大学生産技術研究所 |
著者所属(英) |
|
|
|
en |
|
|
Institute of Industrial Science, The University of Tokyo |
著者所属(英) |
|
|
|
en |
|
|
National Institute of Advanced Industrial Science and Technology (AIST) |
著者所属(英) |
|
|
|
en |
|
|
Institute of Industrial Science, The University of Tokyo |
著者名 |
先崎, 佑弥
大畑, 幸矢
松浦, 幹太
|
著者名(英) |
Yuya, Senzaki
Satsuya, Ohata
Kanta, Matsuura
|
論文抄録 |
|
|
内容記述タイプ |
Other |
|
内容記述 |
畳み込みニューラルネットワーク(Convolutional Neural Network, CNN)はその高い精度を理由に注目を集めているが,入力データに微小な改変を加えることでCNNによる認識を大きく誤らせることが可能な敵対的入力の存在が報告されている.この問題への対策として,敵対的入力を学習に活用するAdversarial Trainingと呼ばれる手法が提案されている.本稿では,CNNに対しこの手法を適用すると(本来高い精度で識別できるはずの)ランダムノイズが乗ったデータの識別率が大きく減少してしまうという問題を指摘する.また,その問題を解決するためにランダムノイズを付加した画像も学習に使用する手法を提案し,実験により提案手法の有用性を実証する. |
書誌レコードID |
|
|
|
識別子タイプ |
NCID |
|
|
関連識別子 |
ISSN 1882-0840 |
書誌情報 |
コンピュータセキュリティシンポジウム2017論文集
巻 2017,
号 2,
発行日 2017-10-16
|
出版者 |
|
|
言語 |
ja |
|
出版者 |
情報処理学会 |