Item type |
SIG Technical Reports(1) |
公開日 |
2022-11-21 |
タイトル |
|
|
タイトル |
敵対的サンプル攻撃対策をVitis-AIで実現するためのモデル量子化手法の実装と評価 |
タイトル |
|
|
言語 |
en |
|
タイトル |
Evaluation of Model Quantization Method on Vitis-AI for Mitigating Adversarial Examples |
言語 |
|
|
言語 |
jpn |
キーワード |
|
|
主題Scheme |
Other |
|
主題 |
FPGA応用 |
資源タイプ |
|
|
資源タイプ識別子 |
http://purl.org/coar/resource_type/c_18gh |
|
資源タイプ |
technical report |
著者所属 |
|
|
|
立命館大学理工学研究科 |
著者所属 |
|
|
|
立命館大学理工学部 |
著者所属 |
|
|
|
立命館大学理工学部 |
著者所属(英) |
|
|
|
en |
|
|
Graduate School of Science and Engineering, Ritsumeikan University |
著者所属(英) |
|
|
|
en |
|
|
Department of Science and Engineering, Ritsumeikan University |
著者所属(英) |
|
|
|
en |
|
|
Department of Science and Engineering, Ritsumeikan University |
著者名 |
福田, 悠太
吉田, 康太
藤野, 毅
|
著者名(英) |
Yuta, Fukuda
Kota, Yoshida
Takeshi, Fujino
|
論文抄録 |
|
|
内容記述タイプ |
Other |
|
内容記述 |
深層ニューラルネットワーク (DNN) では,敵対的サンプル (Adversarial examples, AEs) 生成攻撃がセキュリティ脅威となっており,その対策の一つとして Adversarial training (AT) がある.AT では,DNN の学習に AEs を用いることで,AEs に対して堅牢な DNN モデルを構築する.一方,FPGA 等のエッジデバイスで DNN を動作させるためにはモデルパラメータを一般的に用いられている 32bit から 8bit に量子化する必要があるが,AT モデルの量子化手順によっては AEs 生成攻撃に対する耐性が低下することが報告されている.我々は以前,量子化手順に AT を導入することで AT の効果を維持しつつ DNN の量子化を行う Quantization aware adversarial training (QAAT) を提案した.本稿では Xilinx 社が提供する Vitis-AI に QAAT を実装し,FPGA 上で評価を行う.実験では Zynq UltraScale+ が搭載されている評価用ボード ZCU104 上で QAAT モデルを動作させ,AT モデルと同等の AEs 生成攻撃に対するロバスト性が得られたことを報告する. |
論文抄録(英) |
|
|
内容記述タイプ |
Other |
|
内容記述 |
Adversarial examples (AEs) are security threats in deep neural networks (DNNs). One of the countermeasures is adversarial training (AT), and it trains DNNs by using a training dataset containing AEs to achieve robustness against AEs. On the other hand, it has been reported that the robustness of AT is lost when it quantizes AT-trained model parameters from the commonly used 32-bit floating point to 8-bit integer number to run DNN on edge devices such as FPGA. In a previous study, we pointed out that the cause is in a fine-tuning process in the quantization method that uses natural samples to deal with quantization errors. We have proposed quantization-aware adversarial training (QAAT) to address the problem, which optimizes DNNs by conducting AT in quantization flow. In this paper, we construct a QAAT model using Vitis-AI provided by Xilinx. We actually run on the evaluation board ZCU104, which is equipped with Zynq UltraScale+, and we evaluate the robustness of a QAAT-trained model against AEs. |
書誌レコードID |
|
|
収録物識別子タイプ |
NCID |
|
収録物識別子 |
AA11451459 |
書誌情報 |
研究報告システムとLSIの設計技術(SLDM)
巻 2022-SLDM-200,
号 35,
p. 1-6,
発行日 2022-11-21
|
ISSN |
|
|
収録物識別子タイプ |
ISSN |
|
収録物識別子 |
2188-8639 |
Notice |
|
|
|
SIG Technical Reports are nonrefereed and hence may later appear in any journals, conferences, symposia, etc. |
出版者 |
|
|
言語 |
ja |
|
出版者 |
情報処理学会 |