ログイン 新規登録
言語:

WEKO3

  • トップ
  • ランキング
To
lat lon distance
To

Field does not validate



インデックスリンク

インデックスツリー

メールアドレスを入力してください。

WEKO

One fine body…

WEKO

One fine body…

アイテム

  1. シンポジウム
  2. シンポジウムシリーズ
  3. コンピュータセキュリティシンポジウム
  4. 2021

連合学習のためのモデル分割,シャッフル,集約によるモデル漏洩の防止に関する一考察

https://ipsj.ixsq.nii.ac.jp/records/214436
https://ipsj.ixsq.nii.ac.jp/records/214436
90257168-0abb-4409-8ecb-b7e0938aa033
名前 / ファイル ライセンス アクション
IPSJCSS2021036.pdf IPSJCSS2021036.pdf (4.0 MB)
Copyright (c) 2021 by the Information Processing Society of Japan
オープンアクセス
Item type Symposium(1)
公開日 2021-10-19
タイトル
タイトル 連合学習のためのモデル分割,シャッフル,集約によるモデル漏洩の防止に関する一考察
タイトル
言語 en
タイトル A Study on Mitigation of Model Leakage by Model Fragmentation, Shuffle, and Aggregation for Federated Learning
言語
言語 jpn
キーワード
主題Scheme Other
主題 連合学習,モデル反転攻撃,プライバシー
資源タイプ
資源タイプ識別子 http://purl.org/coar/resource_type/c_5794
資源タイプ conference paper
著者所属
大阪大学大学院情報科学研究科
著者所属
大阪大学大学院情報科学研究科
著者所属
大阪大学大学院情報科学研究科
著者所属
大阪大学大学院情報科学研究科
著者所属
大阪大学大学院情報科学研究科
著者所属(英)
en
Graduate School of Information Science and Technology, Osaka University
著者所属(英)
en
Graduate School of Information Science and Technology, Osaka University
著者所属(英)
en
Graduate School of Information Science and Technology, Osaka University
著者所属(英)
en
Graduate School of Information Science and Technology, Osaka University
著者所属(英)
en
Graduate School of Information Science and Technology, Osaka University
著者名 増田, 大輝

× 増田, 大輝

増田, 大輝

Search repository
北, 健太朗

× 北, 健太朗

北, 健太朗

Search repository
小泉, 佑揮

× 小泉, 佑揮

小泉, 佑揮

Search repository
武政, 淳二

× 武政, 淳二

武政, 淳二

Search repository
長谷川, 亨

× 長谷川, 亨

長谷川, 亨

Search repository
著者名(英) Hiroki, Masuda

× Hiroki, Masuda

en Hiroki, Masuda

Search repository
Kentaro, Kita

× Kentaro, Kita

en Kentaro, Kita

Search repository
Yuki, Koizumi

× Yuki, Koizumi

en Yuki, Koizumi

Search repository
Junji, Takemasa

× Junji, Takemasa

en Junji, Takemasa

Search repository
Toru, Hasegawa

× Toru, Hasegawa

en Toru, Hasegawa

Search repository
論文抄録
内容記述タイプ Other
内容記述 ユーザが所有する教師データの漏洩を防ぐため,教師データを渡さずに,ユーザ自身で共有モデルを更新する連合学習が提案されている.しかし,教師データの代わりにユーザがサーバへ提供する更新前後の共有モデルの差分 (差分モデルと呼ぶ) からモデル反転攻撃によって教師データが推定される問題がある.この問題に対し,差分プライバシーを用いて,ユーザがノイズを加算した差分モデルをサーバへ送信することで教師データを推定されにくくする手法が提案されているが,ノイズが共有モデルの品質を劣化させる.本研究では,共有モデルの品質を劣化させずに,差分モデルに対するモデル反転攻撃を防ぐ連合学習システムを提案する.主なアイデアは,個々の差分モデルを攻撃者から隠蔽するために,各ユーザが差分モデルを複数のフラグメントに分割し,異なるユーザのフラグメント同士を足し合わせてから集約することである.結果として得られる共有モデルは,従来の連合学習で作製される共有モデルと同一である.
論文抄録(英)
内容記述タイプ Other
内容記述 Federated learning is a privacy-preserving learning system where users locally update a shared model with their own training data without sending them to the server. However, federated learning is vulnerable to a model inversion attack, which infers training data from the models updated by the users, referred to as individual models. A solution to prevent such attacks is differential privacy, where each user adds noise to the individual model before sending it to the server. Differential privacy, however, sacrifices the quality of the shared model by noise. This paper proposes a federated learning system that is resistant to model inversion attacks without sacrificing the quality of the shared model. The core idea is that each user divides the individual model into fragments, shuffles, and aggregates them to prevent adversaries from inferring training data. The resulting shared model is identical to the shared model generated with the naive federated learning.
書誌情報 コンピュータセキュリティシンポジウム2021論文集

p. 260-267, 発行日 2021-10-19
出版者
言語 ja
出版者 情報処理学会
戻る
0
views
See details
Views

Versions

Ver.1 2025-01-19 16:38:00.119494
Show All versions

Share

Mendeley Twitter Facebook Print Addthis

Cite as

エクスポート

OAI-PMH
  • OAI-PMH JPCOAR
  • OAI-PMH DublinCore
  • OAI-PMH DDI
Other Formats
  • JSON
  • BIBTEX

Confirm


Powered by WEKO3


Powered by WEKO3