Item type |
Symposium(1) |
公開日 |
2023-10-23 |
タイトル |
|
|
タイトル |
物体検出DNNに対するイメージセンサインターフェース MIPIへのフォルト注入によってトリガする特定クラス誤分類・特定クラス消失バックドア攻撃 |
タイトル |
|
|
言語 |
en |
|
タイトル |
Misclassification and Disappearance against Object Detector Using Backdoor Attack Triggered by Fault Injection into MIPI |
言語 |
|
|
言語 |
jpn |
キーワード |
|
|
主題Scheme |
Other |
|
主題 |
バックドア攻撃,Mobile Industry Processor Interface(MIPI),フォルト攻撃 |
資源タイプ |
|
|
資源タイプ識別子 |
http://purl.org/coar/resource_type/c_5794 |
|
資源タイプ |
conference paper |
著者所属 |
|
|
|
立命館大学理工学研究科 |
著者所属 |
|
|
|
立命館大学理工学研究科 |
著者所属 |
|
|
|
立命館大学理工学部 |
著者所属 |
|
|
|
立命館大学理工学部 |
著者所属 |
|
|
|
立命館大学理工学部 |
著者所属(英) |
|
|
|
en |
|
|
Graduate School of Science and Engineering, Ritsumeikan University |
著者所属(英) |
|
|
|
en |
|
|
Graduate School of Science and Enginerring, Ritsumeikan University |
著者所属(英) |
|
|
|
en |
|
|
Department of Science and Engineering, Ritsumeikan University |
著者所属(英) |
|
|
|
en |
|
|
Department of Science and Engineering, Ritsumeikan University |
著者所属(英) |
|
|
|
en |
|
|
Department of Science and Engineering, Ritsumeikan University |
著者名 |
田窪, 拓海
大山, 達哉
吉田, 康太
大倉, 俊介
藤野, 毅
|
著者名(英) |
Takumi, Takubo
Tatsuya, Oyama
Kota, Yoshida
Shunsuke, Okura
Takeshi, Fujino
|
論文抄録 |
|
|
内容記述タイプ |
Other |
|
内容記述 |
自動車の運転支援システムなどでは,深層学習技術を用いてイメージセンサが撮影した画像に写る物体の位置とクラスを推定する物体検出 DNN (Deep Neural Network) モデルが利用されている.このような物体検出 DNN モデルに対する脅威として,学習データにポイズニングを行うバックドア攻撃が提案されている.バックドア攻撃では,攻撃者は学習データ中の一部の画像に特定の模様 (トリガマーク) と誤ったラベルが付与されたポイズンデータを混入させる.このようなデータを学習した DNN モデルは通常の画像に対して正しい推論を行うが,トリガマークが付加された画像に対しては誤った推論を行ってしまう.著者らは以前,イメージセンサの通信インターフェースである MIPI への電気的フォルト注入によってトリガマークを画像中に出現させる攻撃を報告した.この報告では,DNN モデルはトリガマークを「人」と誤認識する物体生成攻撃を報告した.本稿ではその拡張として,トリガマークを挿入することで画像中のすべての「人」を「車」に誤分類させる特定クラス誤分類攻撃及び画像中のすべての「人」を消失させる特定クラス消失攻撃という 2 種類の攻撃を実施した結果を報告する. |
論文抄録(英) |
|
|
内容記述タイプ |
Other |
|
内容記述 |
Object detection DNN (Deep Neural Network) models are used in advanced driver assistance systems to estimate the position and class of objects in images captured by image sensors using deep learning techniques. As a threat to such object detection DNN models, a backdoor attack that mixes poison data into the training dataset has been proposed. In the backdoor attack, an adversary adds a specific pattern (trigger mark) to images in the part of training data (poison data) and mislabels them. DNN models trained on such data make correct inferences on normal images but incorrect inferences on images with trigger marks. We previously reported an attack method in which trigger marks were generated in images by injecting electrical faults into an image sensor interface. We introduced Object Generation Attack (OGA) in which the DNN model was configured to misclassify the trigger mark as a “person”. In this paper, we report two types of attacks as an extension of the previous attack by inserting trigger marks: a Specific Class Misclassification Attack (SCMA), in which all “person” on the image are misclassified as “car”, and a Specific Class Disappearance Attack (SCDA), in which all “person” on the image are not detected. |
書誌情報 |
コンピュータセキュリティシンポジウム2023論文集
p. 1211-1218,
発行日 2023-10-23
|
出版者 |
|
|
言語 |
ja |
|
出版者 |
情報処理学会 |