| Item type |
Symposium(1) |
| 公開日 |
2023-10-23 |
| タイトル |
|
|
タイトル |
ベイジアンニューラルネットワークのプライバシーリスク |
| タイトル |
|
|
言語 |
en |
|
タイトル |
Privacy Risk of Bayesian Neural Network |
| 言語 |
|
|
言語 |
jpn |
| キーワード |
|
|
主題Scheme |
Other |
|
主題 |
メンバーシップ推定攻撃,深層学習,ベイズ推論 |
| 資源タイプ |
|
|
資源タイプ識別子 |
http://purl.org/coar/resource_type/c_5794 |
|
資源タイプ |
conference paper |
| 著者所属 |
|
|
|
NTT社会情報研究所 |
| 著者所属 |
|
|
|
NTT社会情報研究所 |
| 著者所属 |
|
|
|
NTT社会情報研究所 |
| 著者所属 |
|
|
|
NTT社会情報研究所 |
| 著者所属(英) |
|
|
|
en |
|
|
NTT Social Informatics Laboratories |
| 著者所属(英) |
|
|
|
en |
|
|
NTT Social Informatics Laboratories |
| 著者所属(英) |
|
|
|
en |
|
|
NTT Social Informatics Laboratories |
| 著者所属(英) |
|
|
|
en |
|
|
NTT Social Informatics Laboratories |
| 著者名 |
芝原, 俊樹
三浦, 尭之
紀伊, 真昇
市川, 敦謙
|
| 著者名(英) |
Toshiki, Shibahara
Takayuki, Miura
Masanobu, Kii
Atsunori, Ichikawa
|
| 論文抄録 |
|
|
内容記述タイプ |
Other |
|
内容記述 |
教師データのプライバシーリスクを評価する方法として,メンバーシップ推定攻撃(MIA)が盛んに研究されているが,対象は決定的なdeep neural network (DNN)に限定されていた.本稿では,決定的なDNNに対するMIAを,Bayesian NN (BNN)に適用できるように拡張し,BNNのプライバシーリスクを評価する.具体的には,予測値の事後分布に関する情報をどの程度詳細に出力するかに応じて,4種類の攻撃を提案した.さらに,BNNの同じ入力に対しても異なる出力が得られる特性に着目し,同じデータを複数回モデルに問い合わせた結果を使用した攻撃も4種類提案した.2つの回帰タスクの表形式データセットと3つの全結合BNNを用いて,4つのRQに関する実験を行った.その結果,事後分布の詳細な情報を出力するとプライバシーリスクが高くなること,事後分布の有用性とプライバシーリスクにはトレードオフがあること,サンプリング回数を少なくすると事後分布の情報を詳細に出力しても増加するプライバシーリスクは小さいこと,複数回の問い合わせ結果を使用した攻撃を考慮しないとプライバシーリスクを低く見積もる可能性があることが分かった. |
| 論文抄録(英) |
|
|
内容記述タイプ |
Other |
|
内容記述 |
Membership Inference Attacks (MIAs) have been actively studied to evaluate privacy risks of training data. However, existing MIAs focus on deterministic deep neural networks (DNNs). In this paper, we extend MIAs against deterministic DNNs to be applicable to Bayesian NNs (BNNs) and evaluate the privacy risks of BNNs. Specifically, we propose four attacks depending on how much detail of the posterior distribution of the prediction is output. Additionally, considering the trait of BNNs that produce different outputs for the same input, we also propose four attacks that use multiple queries to the model. We conducted experiments using two tabular datasets for regression tasks and three fully connected BNNs to answer four research questions. The experimental results show that privacy risks are higher when outputting detailed information about the posterior distribution, more useful posterior distributions increase more privacy risks, detailed information about the posterior distribution does not much increase privacy risks if the number of posterior sampling is small, and privacy risks can be underestimated without considering the attacks using multiple queries. |
| 書誌情報 |
コンピュータセキュリティシンポジウム2023論文集
p. 87-94,
発行日 2023-10-23
|
| 出版者 |
|
|
言語 |
ja |
|
出版者 |
情報処理学会 |