WEKO3
アイテム
属性の影響を考慮したプライバシ保護機械学習
https://ipsj.ixsq.nii.ac.jp/records/228625
https://ipsj.ixsq.nii.ac.jp/records/2286252d2d667c-3dd8-4125-ae0e-eac27a9c1546
名前 / ファイル | ライセンス | アクション |
---|---|---|
![]()
2025年10月23日からダウンロード可能です。
|
Copyright (c) 2023 by the Information Processing Society of Japan
|
|
非会員:¥660, IPSJ:学会員:¥330, CSEC:会員:¥0, SPT:会員:¥0, DLIB:会員:¥0 |
Item type | Symposium(1) | |||||||||
---|---|---|---|---|---|---|---|---|---|---|
公開日 | 2023-10-23 | |||||||||
タイトル | ||||||||||
タイトル | 属性の影響を考慮したプライバシ保護機械学習 | |||||||||
タイトル | ||||||||||
言語 | en | |||||||||
タイトル | Contribution-Based Privacy Budget Allocation for Privacy-Preserving Machine Learning | |||||||||
言語 | ||||||||||
言語 | jpn | |||||||||
資源タイプ | ||||||||||
資源タイプ識別子 | http://purl.org/coar/resource_type/c_5794 | |||||||||
資源タイプ | conference paper | |||||||||
著者所属 | ||||||||||
大阪大学工学研究科 | ||||||||||
著者所属 | ||||||||||
大阪大学工学研究科 | ||||||||||
著者所属(英) | ||||||||||
en | ||||||||||
Graduate School of Engineering, Osaka University | ||||||||||
著者所属(英) | ||||||||||
en | ||||||||||
Graduate School of Engineering, Osaka University | ||||||||||
著者名 |
何, 炳昌
× 何, 炳昌
× 宮地, 充子
|
|||||||||
著者名(英) |
Bingchang, He
× Bingchang, He
× Atsuko, Miyaji
|
|||||||||
論文抄録 | ||||||||||
内容記述タイプ | Other | |||||||||
内容記述 | マシンラーニングの学習フェーズにおけるプライバシーの保護は重要である.プライバシーを保護しながらの機械学習の実現には,機械学習モデルのパラメータにノイズを加える方法と,ノイズデータを用いて学習を行う方法の 2 つがある.前者はその高い精度から選択されることが多いが,後者はプライバシーを優先するため,精度が劣化する.一部の研究は,後者の方法の精度向上を次元削減によって図っているが,その結果,使用可能な属性の数が著しく減少するという犠牲を払っている.既存の方法は,すべての属性を等しく扱っている.本論文では,均等ではなく,貢献度に基づいてプライバシーバジェットを割り当てる新たな方法を提案する.これにより,使用可能な属性の数を犠牲にすることなく,精度を向上させることを可能にする.また,提案された新しい方法を組み込んだプライバシー保護型機械学習フレームワークの改良版を提案し,その性能をロジスティック回帰およびサポートベクターマシンという機械学習アルゴリズムを用いて評価する.既存の方法と比較して,本フレームワークは精度と使用可能な属性の数の 2 点で高い効果を示す.本手法がより効果的であるかについての条件も明確にする. | |||||||||
論文抄録(英) | ||||||||||
内容記述タイプ | Other | |||||||||
内容記述 | The preservation of privacy during the learning phase of machine learning is challenging. There are two methods to achieve privacy-preserving machine learning: adding noise to machine-learning model parameters or executing learning using noise data. The former is often selected for its higher accuracy, whereas the latter is preferred for privacy. Some studies have improved the accuracy of the latter method through dimension reduction, but at the cost of significantly reducing the number of available attributes. These methods treat all attributes equally. This paper proposes a novel method that allocates privacy budgets according to their effectiveness rather than equally; this improves the accuracy without sacrificing the number of available attributes. We also propose a modified version of a privacy-preserving machine learning framework that incorporates the new method, and we evaluate its performance using logistic regression and support vector machines as machine learning algorithms. Compared with existing methods, our framework is effective in terms of accuracy and the number of available attributes. We also clarify the conditions under which our method is more effective for a given dataset. |
|||||||||
書誌情報 |
コンピュータセキュリティシンポジウム2023論文集 p. 79-86, 発行日 2023-10-23 |
|||||||||
出版者 | ||||||||||
言語 | ja | |||||||||
出版者 | 情報処理学会 |