ログイン 新規登録
言語:

WEKO3

  • トップ
  • ランキング
To
lat lon distance
To

Field does not validate



インデックスリンク

インデックスツリー

メールアドレスを入力してください。

WEKO

One fine body…

WEKO

One fine body…

アイテム

  1. シンポジウム
  2. シンポジウムシリーズ
  3. コンピュータセキュリティシンポジウム
  4. 2024

画像分類における効率的なバックドア防御のためのアクティベーションクリッピング

https://ipsj.ixsq.nii.ac.jp/records/240996
https://ipsj.ixsq.nii.ac.jp/records/240996
769b00bd-eeb7-4902-ba04-62e88a0b0fcc
名前 / ファイル ライセンス アクション
IPSJ-CSS2024250.pdf IPSJ-CSS2024250.pdf (493.3 kB)
 2026年10月15日からダウンロード可能です。
Copyright (c) 2024 by the Information Processing Society of Japan
非会員:¥660, IPSJ:学会員:¥330, CSEC:会員:¥0, SPT:会員:¥0, DLIB:会員:¥0
Item type Symposium(1)
公開日 2024-10-15
タイトル
言語 ja
タイトル 画像分類における効率的なバックドア防御のためのアクティベーションクリッピング
タイトル
言語 en
タイトル Efficient Activation Clipping for Backdoor Defense in Image Classification
言語
言語 jpn
キーワード
主題Scheme Other
主題 深層ニューラルネットワーク,バックドア攻撃,バックドア防御
資源タイプ
資源タイプ識別子 http://purl.org/coar/resource_type/c_5794
資源タイプ conference paper
著者所属
九州大学
著者所属
九州大学
著者所属
九州大学
著者所属(英)
en
Kyushu University
著者所属(英)
en
Kyushu University
著者所属(英)
en
Kyushu University
著者名 徐, 煜凱

× 徐, 煜凱

徐, 煜凱

Search repository
顧, 玉杰

× 顧, 玉杰

顧, 玉杰

Search repository
櫻井, 幸一

× 櫻井, 幸一

櫻井, 幸一

Search repository
著者名(英) Yukai, Xu

× Yukai, Xu

en Yukai, Xu

Search repository
Yujie, Gu

× Yujie, Gu

en Yujie, Gu

Search repository
Kouichi, Sakurai

× Kouichi, Sakurai

en Kouichi, Sakurai

Search repository
論文抄録
内容記述タイプ Other
内容記述 バックドア攻撃は,特に画像分類において,深層ニューラルネットワークに対する重大な脅威である.バックドア攻撃は,わずかな汚染された訓練データで被害者モデルを汚染することが可能である.その結果,被害者モデルはバックドアパターンを含むテストサンプルを攻撃者の指定したクラスに誤分類し,バックドアのないサンプルは正しく分類する.攻撃アルゴリズムはますます目立たない方法でバックドアパターンを埋め込むことができるため,検出および緩和が困難となる.本研究では,訓練データセットのみを用いて,訓練過程中にアクティベーション値をクリップし制約する新しい防御メカニズムを提案する.提案手法は,訓練データのみを使用し,訓練過程でアクティベーション値をクリップおよび制限する新しい防御メカニズムを提案する.包括的な実験により,提案手法が最新技術に比べて高い精度と低い攻撃成功率(ASR)を達成し,さらに時間消費も少ないことが示された.これらの結果は,提案されたアクティベーションクリッピング手法が,バックドア攻撃に対する画像分類モデルのロバスト性を向上させるための効果的かつ効率的な解決策であることを示した.
論文抄録(英)
内容記述タイプ Other
内容記述 Backdoor attacks pose a significant threat to deep neural networks, especially in image classification. Advanced attack algorithms can implant backdoor patterns in increasingly inconspicuous ways, making them difficult to detect and mitigate. Existing defense methods, such as Mm-bd, disinfects compromised models by optimizing an uppper bound of activation outputs with an additional clean dataset. However, this method has limitations, including the need for a clean extra dataset, which is not always available, and increased computational burden. In this work, we propose a novel defense mechanism that dynamically clips and bounds activation values utilizing the z-scores of each activation nodes, during the training process. It eliminates the need for an additional dataset. This approach significantly reduces the impact of poisoned data on the model. Conprehensive experiments demonstrate that our method achieves higher accuracy, lower attack success rates (ASR), and reduced computational time compared to existing methods. These results suggest that dynamic activation clipping is an effective and efficient solution for enhancing the robustness of image classification models against backdoor attacks.
書誌情報 コンピュータセキュリティシンポジウム2024論文集

p. 1877-1879, 発行日 2024-10-15
出版者
言語 ja
出版者 情報処理学会
戻る
0
views
See details
Views

Versions

Ver.1 2025-01-19 07:46:44.089089
Show All versions

Share

Mendeley Twitter Facebook Print Addthis

Cite as

エクスポート

OAI-PMH
  • OAI-PMH JPCOAR
  • OAI-PMH DublinCore
  • OAI-PMH DDI
Other Formats
  • JSON
  • BIBTEX

Confirm


Powered by WEKO3


Powered by WEKO3