ログイン 新規登録
言語:

WEKO3

  • トップ
  • ランキング
To
lat lon distance
To

Field does not validate



インデックスリンク

インデックスツリー

メールアドレスを入力してください。

WEKO

One fine body…

WEKO

One fine body…

アイテム

  1. 研究報告
  2. セキュリティ心理学とトラスト(SPT)
  3. 2024
  4. 2024-SPT-054

AIモデルの説明可能性LIMEとShapley値からの属性推定リスクの評価

https://ipsj.ixsq.nii.ac.jp/records/233801
https://ipsj.ixsq.nii.ac.jp/records/233801
2d190d95-8bef-49b8-8de9-7a188aa620f6
名前 / ファイル ライセンス アクション
IPSJ-SPT24054030.pdf IPSJ-SPT24054030.pdf (1.4 MB)
Copyright (c) 2024 by the Institute of Electronics, Information and Communication Engineers This SIG report is only available to those in membership of the SIG.
SPT:会員:¥0, DLIB:会員:¥0
Item type SIG Technical Reports(1)
公開日 2024-03-14
タイトル
タイトル AIモデルの説明可能性LIMEとShapley値からの属性推定リスクの評価
タイトル
言語 en
タイトル Evaluation of Feature Inference Risk from Explainable AI metrics LIME and Shapley Values
言語
言語 jpn
キーワード
主題Scheme Other
主題 ICSS(4)
資源タイプ
資源タイプ識別子 http://purl.org/coar/resource_type/c_18gh
資源タイプ technical report
著者所属
明治大学総合数理学部
著者所属
明治大学総合数理学部
著者所属(英)
en
School of Interdisciplinary Mathematical Sciences, Meiji University
著者所属(英)
en
School of Interdisciplinary Mathematical Sciences, Meiji University
著者名 當麻, 僚太郎

× 當麻, 僚太郎

當麻, 僚太郎

Search repository
菊池, 浩明

× 菊池, 浩明

菊池, 浩明

Search repository
著者名(英) Ryotaro, Toma

× Ryotaro, Toma

en Ryotaro, Toma

Search repository
Hiroaki, Kikuchi

× Hiroaki, Kikuchi

en Hiroaki, Kikuchi

Search repository
論文抄録
内容記述タイプ Other
内容記述 機械学習モデルの公平性や学習の透明性を保証し,ユーザに納得感を与えるために機械学習モデルの出力を説明する説明可能性技術が注目されている.Amazon Web Services や Google Cloud Platform,Microsoft Azure などの主要なサービスの多くは Machine Learning as a Service(以下,MLaaS)と呼ばれるプラットフォーム上で提供されており,モデルの出力を説明するための手法をいくつか提供している.しかし,2022 年に Luo らが Shapley 値による説明からモデルへのプライベートな入力を推論出来ることを示した.ただし,Shapley 値以外の説明手法について同様の属性推定リスクが存在するかは明らかでない.そこで,Shapley 値と同じ局所的な説明手法である LIME に対して属性推論攻撃を行い,Shapley 値と LIME の属性推定リスクの違いについて評価する.
論文抄録(英)
内容記述タイプ Other
内容記述 Explainability has gained attention to ensure fairness and transparency in machine learning models, providing users with a sense of understanding. Many services such as Amazon Web Services, Google Cloud Platform, and Microsoft Azure running Machine Learning as a Service (MLaaS) platforms, which provide several methods to explain model. However, in 2022, Luo et al. demonstrated that Shapley value-based explanations could lead to inference of private attribute, posing privacy risks of information leakage from models. Nevertheless, it remains unclear whether the attribute inference risk on the alternative explainability exist or not. Therefore, this study evaluates the attribute inference risk on LIME and compare the vulnerability with the explanability Shapley values.
書誌レコードID
収録物識別子タイプ NCID
収録物識別子 AA12628305
書誌情報 研究報告セキュリティ心理学とトラスト(SPT)

巻 2024-SPT-54, 号 30, p. 1-8, 発行日 2024-03-14
ISSN
収録物識別子タイプ ISSN
収録物識別子 2188-8671
Notice
SIG Technical Reports are nonrefereed and hence may later appear in any journals, conferences, symposia, etc.
出版者
言語 ja
出版者 情報処理学会
戻る
0
views
See details
Views

Versions

Ver.1 2025-01-19 09:58:50.122776
Show All versions

Share

Mendeley Twitter Facebook Print Addthis

Cite as

エクスポート

OAI-PMH
  • OAI-PMH JPCOAR
  • OAI-PMH DublinCore
  • OAI-PMH DDI
Other Formats
  • JSON
  • BIBTEX

Confirm


Powered by WEKO3


Powered by WEKO3