Item type |
SIG Technical Reports(1) |
公開日 |
2019-11-28 |
タイトル |
|
|
タイトル |
単眼深度推定CNNにおける敵対的画像生成 |
タイトル |
|
|
言語 |
en |
|
タイトル |
Adversarial Examples for Monocular Depth Estimation |
言語 |
|
|
言語 |
jpn |
資源タイプ |
|
|
資源タイプ識別子 |
http://purl.org/coar/resource_type/c_18gh |
|
資源タイプ |
technical report |
著者所属 |
|
|
|
名古屋大学大学院工学研究科藤井研究室 |
著者所属 |
|
|
|
名古屋大学大学院工学研究科藤井研究室 |
著者所属 |
|
|
|
名古屋大学大学院工学研究科藤井研究室 |
著者所属 |
|
|
|
名古屋大学大学院工学研究科藤井研究室 |
著者所属(英) |
|
|
|
en |
|
|
Graduate School of Engineering, Nagoya University |
著者所属(英) |
|
|
|
en |
|
|
Graduate School of Engineering, Nagoya University |
著者所属(英) |
|
|
|
en |
|
|
Graduate School of Engineering, Nagoya University |
著者所属(英) |
|
|
|
en |
|
|
Graduate School of Engineering, Nagoya University |
著者名 |
山中, 幸一郎
松本, 隆太郎
高橋, 桂太
藤井, 俊彰
|
著者名(英) |
Koichiro, Yamanaka
Ryutaroh, Matsumoto
Keita, Takahashi
Toshiaki, Fujii
|
論文抄録 |
|
|
内容記述タイプ |
Other |
|
内容記述 |
近年,畳み込みニューラルネットワーク (CNN) を用いたクラス分類問題 ・物体認識問題において,Adversarial Examples (敵対的画像生成) の研究が盛んに行われている.敵対的画像生成とは,CNN への入力画像に摂動を加えることで CNN を編し,誤推定を意図的に誘発させる手法である.敵対的画像生成は主に 2 種類に分類され,入力画像全体のピクセル値を僅かに変更する手法と入力画像の局所領域に特定のパターン (敵対的パッチ画像) を上書きする手法の 2 種類が存在する.後者の手法は敵対的画像生成の中でも特に Adversarial Patch Attack (敵対的パッチ画像生成) と呼ばれ,最近の研究では現実世界における敵対的画像生成も提案されている.すなわち,敵対的パッチ画像をカメラで撮影することで,クラス分類 CNN や物体認識 CNN を編すことができる.しかし,回帰問題における敵対的画像生成はあまり研究されていない.そこで,本稿では回帰問題,特に単眼深度推定 CNN における敵対的画像生成手法を提案する.提案手法を用いることで,単眼深度推定 CNN の深度推定結果を任意に操作できる敵対的パッチ画像が生成できることを実験により示す. |
論文抄録(英) |
|
|
内容記述タイプ |
Other |
|
内容記述 |
Adversarial examples for classification and object recognition problems using convolutional neural networks (CNN) have attracted much attention in recent years. By adding perturbations to an input image of a CNN, adversarial attack is able to intentionally induce erroneous inferences. Adversarial attack is roughly classified into two types. The one is a method that slightly changes the pixel values of an entire input image, and the other is a method that overwrites a specific pattern (adversarial patch) on a local region of the input image. The latter method is called the adversarial patch attack, and recently real world attack was proposed by using this method. In other words, the classification CNN and the object recognition CNN could be deceived by taking a printed adversarial patch with a camera. However, adversarial attacks on regression problems have not been studied well. In this paper, we propose an adversarial attack method for regression problem, especially for monocular depth estimation CNN. We demonstrate that our method is capable of generating adversarial patches that can arbitrarily manipulate the output of the monocular depth estimation. |
書誌レコードID |
|
|
収録物識別子タイプ |
NCID |
|
収録物識別子 |
AN10438399 |
書誌情報 |
研究報告オーディオビジュアル複合情報処理(AVM)
巻 2019-AVM-107,
号 17,
p. 1-5,
発行日 2019-11-28
|
ISSN |
|
|
収録物識別子タイプ |
ISSN |
|
収録物識別子 |
2188-8582 |
Notice |
|
|
|
SIG Technical Reports are nonrefereed and hence may later appear in any journals, conferences, symposia, etc. |
出版者 |
|
|
言語 |
ja |
|
出版者 |
情報処理学会 |