Item type |
Symposium(1) |
公開日 |
2021-10-19 |
タイトル |
|
|
タイトル |
連合学習のためのモデル分割,シャッフル,集約によるモデル漏洩の防止に関する一考察 |
タイトル |
|
|
言語 |
en |
|
タイトル |
A Study on Mitigation of Model Leakage by Model Fragmentation, Shuffle, and Aggregation for Federated Learning |
言語 |
|
|
言語 |
jpn |
キーワード |
|
|
主題Scheme |
Other |
|
主題 |
連合学習,モデル反転攻撃,プライバシー |
資源タイプ |
|
|
資源タイプ識別子 |
http://purl.org/coar/resource_type/c_5794 |
|
資源タイプ |
conference paper |
著者所属 |
|
|
|
大阪大学大学院情報科学研究科 |
著者所属 |
|
|
|
大阪大学大学院情報科学研究科 |
著者所属 |
|
|
|
大阪大学大学院情報科学研究科 |
著者所属 |
|
|
|
大阪大学大学院情報科学研究科 |
著者所属 |
|
|
|
大阪大学大学院情報科学研究科 |
著者所属(英) |
|
|
|
en |
|
|
Graduate School of Information Science and Technology, Osaka University |
著者所属(英) |
|
|
|
en |
|
|
Graduate School of Information Science and Technology, Osaka University |
著者所属(英) |
|
|
|
en |
|
|
Graduate School of Information Science and Technology, Osaka University |
著者所属(英) |
|
|
|
en |
|
|
Graduate School of Information Science and Technology, Osaka University |
著者所属(英) |
|
|
|
en |
|
|
Graduate School of Information Science and Technology, Osaka University |
著者名 |
増田, 大輝
北, 健太朗
小泉, 佑揮
武政, 淳二
長谷川, 亨
|
著者名(英) |
Hiroki, Masuda
Kentaro, Kita
Yuki, Koizumi
Junji, Takemasa
Toru, Hasegawa
|
論文抄録 |
|
|
内容記述タイプ |
Other |
|
内容記述 |
ユーザが所有する教師データの漏洩を防ぐため,教師データを渡さずに,ユーザ自身で共有モデルを更新する連合学習が提案されている.しかし,教師データの代わりにユーザがサーバへ提供する更新前後の共有モデルの差分 (差分モデルと呼ぶ) からモデル反転攻撃によって教師データが推定される問題がある.この問題に対し,差分プライバシーを用いて,ユーザがノイズを加算した差分モデルをサーバへ送信することで教師データを推定されにくくする手法が提案されているが,ノイズが共有モデルの品質を劣化させる.本研究では,共有モデルの品質を劣化させずに,差分モデルに対するモデル反転攻撃を防ぐ連合学習システムを提案する.主なアイデアは,個々の差分モデルを攻撃者から隠蔽するために,各ユーザが差分モデルを複数のフラグメントに分割し,異なるユーザのフラグメント同士を足し合わせてから集約することである.結果として得られる共有モデルは,従来の連合学習で作製される共有モデルと同一である. |
論文抄録(英) |
|
|
内容記述タイプ |
Other |
|
内容記述 |
Federated learning is a privacy-preserving learning system where users locally update a shared model with their own training data without sending them to the server. However, federated learning is vulnerable to a model inversion attack, which infers training data from the models updated by the users, referred to as individual models. A solution to prevent such attacks is differential privacy, where each user adds noise to the individual model before sending it to the server. Differential privacy, however, sacrifices the quality of the shared model by noise. This paper proposes a federated learning system that is resistant to model inversion attacks without sacrificing the quality of the shared model. The core idea is that each user divides the individual model into fragments, shuffles, and aggregates them to prevent adversaries from inferring training data. The resulting shared model is identical to the shared model generated with the naive federated learning. |
書誌情報 |
コンピュータセキュリティシンポジウム2021論文集
p. 260-267,
発行日 2021-10-19
|
出版者 |
|
|
言語 |
ja |
|
出版者 |
情報処理学会 |