ログイン 新規登録
言語:

WEKO3

  • トップ
  • ランキング
To
lat lon distance
To

Field does not validate



インデックスリンク

インデックスツリー

メールアドレスを入力してください。

WEKO

One fine body…

WEKO

One fine body…

アイテム

  1. シンポジウム
  2. シンポジウムシリーズ
  3. コンピュータセキュリティシンポジウム
  4. 2022

プライバシーリスクと利得に関する個人間の公平性

https://ipsj.ixsq.nii.ac.jp/records/223097
https://ipsj.ixsq.nii.ac.jp/records/223097
45a3b74c-3234-4fcb-960e-2bf46812d185
名前 / ファイル ライセンス アクション
IPSJ-CSS2022042.pdf IPSJ-CSS2022042.pdf (889.3 kB)
Copyright (c) 2022 by the Information Processing Society of Japan
オープンアクセス
Item type Symposium(1)
公開日 2022-10-17
タイトル
タイトル プライバシーリスクと利得に関する個人間の公平性
タイトル
言語 en
タイトル Individual Fairness in Privacy Risk and Gain
言語
言語 jpn
キーワード
主題Scheme Other
主題 差分プライバシー,プライバシーリスクの下界,DP-SGD
資源タイプ
資源タイプ識別子 http://purl.org/coar/resource_type/c_5794
資源タイプ conference paper
著者所属
NTT社会情報研究所
著者所属
NTT社会情報研究所
著者所属
NTT社会情報研究所
著者所属
NTT社会情報研究所
著者所属(英)
en
NTT Social Informatics Laboratories
著者所属(英)
en
NTT Social Informatics Laboratories
著者所属(英)
en
NTT Social Informatics Laboratories
著者所属(英)
en
NTT Social Informatics Laboratories
著者名 芝原, 俊樹

× 芝原, 俊樹

芝原, 俊樹

Search repository
三浦, 尭之

× 三浦, 尭之

三浦, 尭之

Search repository
紀伊, 真昇

× 紀伊, 真昇

紀伊, 真昇

Search repository
市川, 敦謙

× 市川, 敦謙

市川, 敦謙

Search repository
著者名(英) Toshiki, Shibahara

× Toshiki, Shibahara

en Toshiki, Shibahara

Search repository
Takayuki, Miura

× Takayuki, Miura

en Takayuki, Miura

Search repository
Masanobu, Kii

× Masanobu, Kii

en Masanobu, Kii

Search repository
Atsunori, Ichikawa

× Atsunori, Ichikawa

en Atsunori, Ichikawa

Search repository
論文抄録
内容記述タイプ Other
内容記述 近年,プライバシー保護の公平性に関する研究が注目され始めている.しかし,これらの研究はグループ間の公平性(group fairness)に関する研究であり,個人間の公平性(individual fairness)に関する研究は行われていない.そこで,本稿では,プライバシー保護における individual fairness (IF) の新たな定義を提案し,深層学習で差分プライバシー(DP)を保証する DP-SGD を IF の観点から評価する.IF の定義は,ユーザーが機械学習サービスにデータを提供する状況を想定し,すべてのユーザーでプライバシーリスクに見合う利得が得られていれば公平であるという考えに基づいて行った.DP-SGD の評価では,2 つの画像データセット FEMNIST および Celeba と,6 層の畳み込みニューラルネットワークを用いて実験を行った.プライバシーリスクは,DP パラメータ epsilon の下界を求める手法を応用して算出した.利得は,ユーザーにとって自身のデータが高精度に機械学習サービスに分類されることが重要なため,データを提供した際に自身のデータの分類精度がどの程度改善するかで算出した.実験結果から,DP-SGD のノイズの大きさに関するパラメータ sigma を変化させても,提案の不公平度が小さくなる sigma がないことが分かった.さらに,プライバシーリスクを下げる効果がある対策手法を適用した際の実験結果から,不公平度を安定して下げる対策がないこと,条件によっては不公平度が大きくなることが分かった.これらの結果は,IF を改善する手法が必要であることを示している.
論文抄録(英)
内容記述タイプ Other
内容記述 Fairness in privacy protection has been gaining attention. Prior work has focused on group fairness, but individual fairness (IF) has not been studied. In this paper, we propose a definition of individual fairness in privacy protection and evaluate DP-SGD in terms of IF. For the definition, we assume that users provide their data to a machine learning (ML) service and focus on whether users get gains corresponding to privacy risks. In the evaluation of DP-SGD, we used two datasets (FEMNIST and Celeba) and a six-layer convolutional neural network. We calculated a lower bond of differential privacy (DP) parameter epsilon as a privacy risk and accuracy improvement of ML service as a gain. In the evaluation, we used different DP-SGD parameters sigma that control the size of noises, but no sigma made the proposed unfairness small. Additionally, we applied defense methods that reduce the privacy risks but found that no method did not always reduce the unfairness. These results show that a method for improving the proposed IF is required.
書誌情報 コンピュータセキュリティシンポジウム2022論文集

p. 297-304, 発行日 2022-10-17
出版者
言語 ja
出版者 情報処理学会
戻る
0
views
See details
Views

Versions

Ver.1 2025-01-19 13:31:03.861750
Show All versions

Share

Mendeley Twitter Facebook Print Addthis

Cite as

エクスポート

OAI-PMH
  • OAI-PMH JPCOAR
  • OAI-PMH DublinCore
  • OAI-PMH DDI
Other Formats
  • JSON
  • BIBTEX

Confirm


Powered by WEKO3


Powered by WEKO3