@inproceedings{oai:ipsj.ixsq.nii.ac.jp:00240784, author = {當麻, 僚太郎 and 菊池, 浩明 and Ryotaro, Toma and Hiroaki, Kikuchi}, book = {コンピュータセキュリティシンポジウム2024論文集}, month = {Oct}, note = {機械学習モデルの公平性や学習の透明性を保証し,ユーザに納得感を与えるために機械学習モデルの出力を説明する説明可能性技術が注目されている.機械学習モデルを用いたサービスの多くはMachine Learning as a Service(MLaaS)と呼ばれるプラットフォーム上で提供されており,これらのMLaaSプラットフォームでは,モデルの出力に加えて,モデルを説明するいくつかの指標を提供している. 2022年にPatelらは差分プライバシーを保証した説明可能性指標DPGD-Explainを提案している.しかし,モデル説明可能性値を学習することにより,学習データの値を推測するレコードを再構築されるリスクが疑われる.そこで,本研究では,DPGD-Explainに対するレコード再構築リスクを調べ,プライバシー予算や説明の質と安全性との関係を明らかにする., Explainability has gained attention to ensure fairness and transparency in machine learning models, providing users with a sense of understanding. Most services for machine learning models are offered in a style of Machine Learning as a Service (MLaaS) platforms, which provide several methods to explain model outputs. Patel et al. (2022) proposed DPGD-Explain, model explanations with differential privacy. Nevertheless, it remains unclear how model explanations with guarantee of differential privacy is vulnerable against the record reconstruction attack that trains the behavior between input data and the model explanations. In this study, we investigate the record reconstruction risk of DPGD-Explain in terms of the privacy budget and the quality.}, pages = {274--280}, publisher = {情報処理学会}, title = {差分プライバシーを保証したモデル説明DPGD-Explainに対するレコード再構築リスクの実験評価}, year = {2024} }