@techreport{oai:ipsj.ixsq.nii.ac.jp:00200840, author = {山中, 幸一郎 and 松本, 隆太郎 and 高橋, 桂太 and 藤井, 俊彰 and Koichiro, Yamanaka and Ryutaroh, Matsumoto and Keita, Takahashi and Toshiaki, Fujii}, issue = {17}, month = {Nov}, note = {近年,畳み込みニューラルネットワーク (CNN) を用いたクラス分類問題 ・物体認識問題において,Adversarial Examples (敵対的画像生成) の研究が盛んに行われている.敵対的画像生成とは,CNN への入力画像に摂動を加えることで CNN を編し,誤推定を意図的に誘発させる手法である.敵対的画像生成は主に 2 種類に分類され,入力画像全体のピクセル値を僅かに変更する手法と入力画像の局所領域に特定のパターン (敵対的パッチ画像) を上書きする手法の 2 種類が存在する.後者の手法は敵対的画像生成の中でも特に Adversarial Patch Attack (敵対的パッチ画像生成) と呼ばれ,最近の研究では現実世界における敵対的画像生成も提案されている.すなわち,敵対的パッチ画像をカメラで撮影することで,クラス分類 CNN や物体認識 CNN を編すことができる.しかし,回帰問題における敵対的画像生成はあまり研究されていない.そこで,本稿では回帰問題,特に単眼深度推定 CNN における敵対的画像生成手法を提案する.提案手法を用いることで,単眼深度推定 CNN の深度推定結果を任意に操作できる敵対的パッチ画像が生成できることを実験により示す., Adversarial examples for classification and object recognition problems using convolutional neural networks (CNN) have attracted much attention in recent years. By adding perturbations to an input image of a CNN, adversarial attack is able to intentionally induce erroneous inferences. Adversarial attack is roughly classified into two types. The one is a method that slightly changes the pixel values of an entire input image, and the other is a method that overwrites a specific pattern (adversarial patch) on a local region of the input image. The latter method is called the adversarial patch attack, and recently real world attack was proposed by using this method. In other words, the classification CNN and the object recognition CNN could be deceived by taking a printed adversarial patch with a camera. However, adversarial attacks on regression problems have not been studied well. In this paper, we propose an adversarial attack method for regression problem, especially for monocular depth estimation CNN. We demonstrate that our method is capable of generating adversarial patches that can arbitrarily manipulate the output of the monocular depth estimation.}, title = {単眼深度推定CNNにおける敵対的画像生成}, year = {2019} }