Item type |
SIG Technical Reports(1) |
公開日 |
2023-07-17 |
タイトル |
|
|
タイトル |
敵対的攻撃に対する頑健性向上のための暗号化モデルのランダムアンサンブル |
タイトル |
|
|
言語 |
en |
|
タイトル |
A Random Ensemble Method with Encrypted Models for Improving Robustness against Adversarial Examples |
言語 |
|
|
言語 |
jpn |
キーワード |
|
|
主題Scheme |
Other |
|
主題 |
EMM |
資源タイプ |
|
|
資源タイプ識別子 |
http://purl.org/coar/resource_type/c_18gh |
|
資源タイプ |
technical report |
著者所属 |
|
|
|
東京都立大学システムデザイン学部 |
著者所属 |
|
|
|
東京都立大学システムデザイン学部 |
著者所属 |
|
|
|
東京都立大学システムデザイン学部 |
著者所属 |
|
|
|
東京都立大学システムデザイン学部 |
著者所属(英) |
|
|
|
en |
|
|
Department of Computer Science, Tokyo Metropolitan University |
著者所属(英) |
|
|
|
en |
|
|
Department of Computer Science, Tokyo Metropolitan University |
著者所属(英) |
|
|
|
en |
|
|
Department of Computer Science, Tokyo Metropolitan University |
著者所属(英) |
|
|
|
en |
|
|
Department of Computer Science, Tokyo Metropolitan University |
著者名 |
飯島, 諒太
田中, 美貴
塩田, さやか
貴家, 仁志
|
著者名(英) |
Ryota, Iijima
Miki, Tanaka
Sayaka, Shiota
Hitoshi, Kiya
|
論文抄録 |
|
|
内容記述タイプ |
Other |
|
内容記述 |
深層学習(DNN)モデルは敵対的事例(AE)によって予測結果を誤誘導される危険があることが知られている.加えて,あるソースモデルに対して攻撃するように設計された AE が,異なるモデル(ターゲットモデル)に対しても予測結果を誤認識させる転移性と呼ばれる現象がある.先行研究では,Vision Transformer (ViT) は,ConvMixer などの他の CNN モデルよりも転移性が低く,暗号化を施すことでその転移性がより小さくなることが確認された.本稿では,より敵対的攻撃に頑健なモデルを構築することを目的として,暗号化した ViT をサブモデルとして用いたランダムアンサンブル法を提案する.実験により,ホワイトボックス及びブラックボックスの両攻撃法に対して,提案法が従来法に比べ,より頑健であることを確認する. |
論文抄録(英) |
|
|
内容記述タイプ |
Other |
|
内容記述 |
Deep neural networks (DNNs) are well known to be vulnerable to adversarial examples (AEs). In addition, AEs have adversarial transferability, which means AEs generated for a source model can fool another black-box model (target model) with a non-trivial probability. In previous studies, it was confirmed that the vision transformer (ViT) is more robust against the property of adversarial transferability than convolutional neural network (CNN) models such as ConvMixer, and moreover encrypted ViT is more robust than ViT without any encryption. In this article, we propose a random ensemble of encrypted ViT models to achieve much more robust models against adversarial attacks. In experiments, the proposed scheme is verified to be more robust against not only black-box attacks but also white-box ones than convention methods. |
書誌レコードID |
|
|
収録物識別子タイプ |
NCID |
|
収録物識別子 |
AA12628305 |
書誌情報 |
研究報告セキュリティ心理学とトラスト(SPT)
巻 2023-SPT-52,
号 34,
p. 1-5,
発行日 2023-07-17
|
ISSN |
|
|
収録物識別子タイプ |
ISSN |
|
収録物識別子 |
2188-8671 |
Notice |
|
|
|
SIG Technical Reports are nonrefereed and hence may later appear in any journals, conferences, symposia, etc. |
出版者 |
|
|
言語 |
ja |
|
出版者 |
情報処理学会 |