Item type |
Symposium(1) |
公開日 |
2024-10-15 |
タイトル |
|
|
タイトル |
画像分類における効率的なバックドア防御のためのアクティベーションクリッピング |
タイトル |
|
|
言語 |
en |
|
タイトル |
Efficient Activation Clipping for Backdoor Defense in Image Classification |
言語 |
|
|
言語 |
jpn |
キーワード |
|
|
主題Scheme |
Other |
|
主題 |
深層ニューラルネットワーク,バックドア攻撃,バックドア防御 |
資源タイプ |
|
|
資源タイプ識別子 |
http://purl.org/coar/resource_type/c_5794 |
|
資源タイプ |
conference paper |
著者所属 |
|
|
|
九州大学 |
著者所属 |
|
|
|
九州大学 |
著者所属 |
|
|
|
九州大学 |
著者所属(英) |
|
|
|
en |
|
|
Kyushu University |
著者所属(英) |
|
|
|
en |
|
|
Kyushu University |
著者所属(英) |
|
|
|
en |
|
|
Kyushu University |
著者名 |
徐, 煜凱
顧, 玉杰
櫻井, 幸一
|
著者名(英) |
Yukai, Xu
Yujie, Gu
Kouichi, Sakurai
|
論文抄録 |
|
|
内容記述タイプ |
Other |
|
内容記述 |
バックドア攻撃は,特に画像分類において,深層ニューラルネットワークに対する重大な脅威である.バックドア攻撃は,わずかな汚染された訓練データで被害者モデルを汚染することが可能である.その結果,被害者モデルはバックドアパターンを含むテストサンプルを攻撃者の指定したクラスに誤分類し,バックドアのないサンプルは正しく分類する.攻撃アルゴリズムはますます目立たない方法でバックドアパターンを埋め込むことができるため,検出および緩和が困難となる.本研究では,訓練データセットのみを用いて,訓練過程中にアクティベーション値をクリップし制約する新しい防御メカニズムを提案する.提案手法は,訓練データのみを使用し,訓練過程でアクティベーション値をクリップおよび制限する新しい防御メカニズムを提案する.包括的な実験により,提案手法が最新技術に比べて高い精度と低い攻撃成功率(ASR)を達成し,さらに時間消費も少ないことが示された.これらの結果は,提案されたアクティベーションクリッピング手法が,バックドア攻撃に対する画像分類モデルのロバスト性を向上させるための効果的かつ効率的な解決策であることを示した. |
論文抄録(英) |
|
|
内容記述タイプ |
Other |
|
内容記述 |
Backdoor attacks pose a significant threat to deep neural networks, especially in image classification. Advanced attack algorithms can implant backdoor patterns in increasingly inconspicuous ways, making them difficult to detect and mitigate. Existing defense methods, such as Mm-bd, disinfects compromised models by optimizing an uppper bound of activation outputs with an additional clean dataset. However, this method has limitations, including the need for a clean extra dataset, which is not always available, and increased computational burden. In this work, we propose a novel defense mechanism that dynamically clips and bounds activation values utilizing the z-scores of each activation nodes, during the training process. It eliminates the need for an additional dataset. This approach significantly reduces the impact of poisoned data on the model. Conprehensive experiments demonstrate that our method achieves higher accuracy, lower attack success rates (ASR), and reduced computational time compared to existing methods. These results suggest that dynamic activation clipping is an effective and efficient solution for enhancing the robustness of image classification models against backdoor attacks. |
書誌情報 |
コンピュータセキュリティシンポジウム2024論文集
p. 1877-1879,
発行日 2024-10-15
|
出版者 |
|
|
言語 |
ja |
|
出版者 |
情報処理学会 |