ログイン 新規登録
言語:

WEKO3

  • トップ
  • ランキング
To
lat lon distance
To

Field does not validate



インデックスリンク

インデックスツリー

メールアドレスを入力してください。

WEKO

One fine body…

WEKO

One fine body…

アイテム

  1. シンポジウム
  2. シンポジウムシリーズ
  3. コンピュータセキュリティシンポジウム
  4. 2023

AIモデルの説明可能性Shapley値からの属性推定リスクの評価とその対策

https://ipsj.ixsq.nii.ac.jp/records/228624
https://ipsj.ixsq.nii.ac.jp/records/228624
872c41b3-e1e2-4a9b-9e12-da66901142b4
名前 / ファイル ライセンス アクション
IPSJ-CSS2023011.pdf IPSJ-CSS2023011.pdf (494.8 kB)
Copyright (c) 2023 by the Information Processing Society of Japan
オープンアクセス
Item type Symposium(1)
公開日 2023-10-23
タイトル
タイトル AIモデルの説明可能性Shapley値からの属性推定リスクの評価とその対策
タイトル
言語 en
タイトル Mitigation and Evaluation the Risk of Feature Inference Attack from AI Model Explainability, Shapley Values
言語
言語 jpn
キーワード
主題Scheme Other
主題 Shapley値, 説明可能性, 属性推定
資源タイプ
資源タイプ識別子 http://purl.org/coar/resource_type/c_5794
資源タイプ conference paper
著者所属
明治大学総合数理学部
著者所属
明治大学総合数理学部
著者所属(英)
en
School of Interdisciplinary Mathematical Sciences, Meiji University
著者所属(英)
en
School of Interdisciplinary Mathematical Sciences, Meiji University
著者名 當麻, 僚太郎

× 當麻, 僚太郎

當麻, 僚太郎

Search repository
菊池, 浩明

× 菊池, 浩明

菊池, 浩明

Search repository
著者名(英) Ryotaro, Toma

× Ryotaro, Toma

en Ryotaro, Toma

Search repository
Hiroaki, Kikuchi

× Hiroaki, Kikuchi

en Hiroaki, Kikuchi

Search repository
論文抄録
内容記述タイプ Other
内容記述 械学習モデルの公平性や学習の透明性を保証し,ユーザに納得感を与えるために機械学習モデルの出力を説明する説明可能性技術が注目されている.機械学習モデルを用いたサービスの多くはMachine Learning as a Service(MLaaS)と呼ばれるプラットフォーム上で提供されており,これらのMLaaS プラットフォームでは,モデルの出力に加えて,モデル説明するいくつかの指標を提供している.特にShapley値はAmazon Web Services やGoogle Cloud Platform,Microsoft Azure などの主要なMLaaS プラットフォームで提供されている主流の手法である.しかし,2022 年にLuo らがShapley 値による説明からモデルへのプライベートな入力を推論出来ることを示した.これにより,Shapley 値を用いた説明可能性指標にはモデルからプライバシー情報が漏洩するリスクがあることが分かった.ただし,Shapley 値からの属性推定リスクがデータや推定アルゴリズムにどれくらい依存するかは明らかでない.そこで,本研究では,各属性間の相関の強さや攻撃者が採用するアルゴリズムに応じた属性推定リスクの変化を明らかにし,このリスクに対する対策について検討する.
論文抄録(英)
内容記述タイプ Other
内容記述 Explainability has gained attention to ensure fairness and transparency in machine learning models, providing users with a sense of understanding. Most services for machine learning models are offered in a style of Machine Learning as a Service (MLaaS) platforms, which provide several methods to explain model outputs. Particularly, the explanation on the Shapley values is widely available on major MLaaS platforms such as Amazon Web Services, Google Cloud Platform, and Microsoft Azure. Luo et al. (2022) demonstrated that Shapley value-based explanations provided from MLaaS could lead to inference of private inputs to the model, posing privacy risks of private information leakage from models. Nevertheless, it remains unclear how the attribute inference risk from Shapley values depends on the data and the estimation algorithms. Hence, this study investigates how the attribute inference risk varies with the strength of correlations between attributes and the algorithms adopted by attackers varies and consider possible mitigation to this threat.
書誌情報 コンピュータセキュリティシンポジウム2023論文集

p. 71-78, 発行日 2023-10-23
出版者
言語 ja
出版者 情報処理学会
戻る
0
views
See details
Views

Versions

Ver.1 2025-01-19 11:47:16.042066
Show All versions

Share

Mendeley Twitter Facebook Print Addthis

Cite as

エクスポート

OAI-PMH
  • OAI-PMH JPCOAR
  • OAI-PMH DublinCore
  • OAI-PMH DDI
Other Formats
  • JSON
  • BIBTEX

Confirm


Powered by WEKO3


Powered by WEKO3