| Item type |
Symposium(1) |
| 公開日 |
2023-10-23 |
| タイトル |
|
|
タイトル |
AIモデルの説明可能性Shapley値からの属性推定リスクの評価とその対策 |
| タイトル |
|
|
言語 |
en |
|
タイトル |
Mitigation and Evaluation the Risk of Feature Inference Attack from AI Model Explainability, Shapley Values |
| 言語 |
|
|
言語 |
jpn |
| キーワード |
|
|
主題Scheme |
Other |
|
主題 |
Shapley値, 説明可能性, 属性推定 |
| 資源タイプ |
|
|
資源タイプ識別子 |
http://purl.org/coar/resource_type/c_5794 |
|
資源タイプ |
conference paper |
| 著者所属 |
|
|
|
明治大学総合数理学部 |
| 著者所属 |
|
|
|
明治大学総合数理学部 |
| 著者所属(英) |
|
|
|
en |
|
|
School of Interdisciplinary Mathematical Sciences, Meiji University |
| 著者所属(英) |
|
|
|
en |
|
|
School of Interdisciplinary Mathematical Sciences, Meiji University |
| 著者名 |
當麻, 僚太郎
菊池, 浩明
|
| 著者名(英) |
Ryotaro, Toma
Hiroaki, Kikuchi
|
| 論文抄録 |
|
|
内容記述タイプ |
Other |
|
内容記述 |
械学習モデルの公平性や学習の透明性を保証し,ユーザに納得感を与えるために機械学習モデルの出力を説明する説明可能性技術が注目されている.機械学習モデルを用いたサービスの多くはMachine Learning as a Service(MLaaS)と呼ばれるプラットフォーム上で提供されており,これらのMLaaS プラットフォームでは,モデルの出力に加えて,モデル説明するいくつかの指標を提供している.特にShapley値はAmazon Web Services やGoogle Cloud Platform,Microsoft Azure などの主要なMLaaS プラットフォームで提供されている主流の手法である.しかし,2022 年にLuo らがShapley 値による説明からモデルへのプライベートな入力を推論出来ることを示した.これにより,Shapley 値を用いた説明可能性指標にはモデルからプライバシー情報が漏洩するリスクがあることが分かった.ただし,Shapley 値からの属性推定リスクがデータや推定アルゴリズムにどれくらい依存するかは明らかでない.そこで,本研究では,各属性間の相関の強さや攻撃者が採用するアルゴリズムに応じた属性推定リスクの変化を明らかにし,このリスクに対する対策について検討する. |
| 論文抄録(英) |
|
|
内容記述タイプ |
Other |
|
内容記述 |
Explainability has gained attention to ensure fairness and transparency in machine learning models, providing users with a sense of understanding. Most services for machine learning models are offered in a style of Machine Learning as a Service (MLaaS) platforms, which provide several methods to explain model outputs. Particularly, the explanation on the Shapley values is widely available on major MLaaS platforms such as Amazon Web Services, Google Cloud Platform, and Microsoft Azure. Luo et al. (2022) demonstrated that Shapley value-based explanations provided from MLaaS could lead to inference of private inputs to the model, posing privacy risks of private information leakage from models. Nevertheless, it remains unclear how the attribute inference risk from Shapley values depends on the data and the estimation algorithms. Hence, this study investigates how the attribute inference risk varies with the strength of correlations between attributes and the algorithms adopted by attackers varies and consider possible mitigation to this threat. |
| 書誌情報 |
コンピュータセキュリティシンポジウム2023論文集
p. 71-78,
発行日 2023-10-23
|
| 出版者 |
|
|
言語 |
ja |
|
出版者 |
情報処理学会 |