Item type |
Symposium(1) |
公開日 |
2024-10-15 |
タイトル |
|
|
タイトル |
漸進学習を用いた差分プライバシーの精度向上 |
タイトル |
|
|
言語 |
en |
|
タイトル |
Enhancing the Accuracy of Differential Privacy Using Progressive Learning |
言語 |
|
|
言語 |
jpn |
キーワード |
|
|
主題Scheme |
Other |
|
主題 |
差分プライバシー,漸進学習,機械学習 |
資源タイプ |
|
|
資源タイプ識別子 |
http://purl.org/coar/resource_type/c_5794 |
|
資源タイプ |
conference paper |
著者所属 |
|
|
|
九州大学大学院 システム情報科学府 |
著者所属 |
|
|
|
九州大学大学院 システム情報科学府 |
著者所属 |
|
|
|
九州大学大学院 システム情報科学府 |
著者所属(英) |
|
|
|
en |
|
|
Kyushu University, Graduate School and Faculty of Information Science and Electrical Engineering |
著者所属(英) |
|
|
|
en |
|
|
Kyushu University, Graduate School and Faculty of Information Science and Electrical Engineering |
著者所属(英) |
|
|
|
en |
|
|
Kyushu University, Graduate School and Faculty of Information Science and Electrical Engineering |
著者名 |
楊, 伯軒
顧, 玉杰
櫻井, 幸一
|
著者名(英) |
Yang, Boxuan
Gu, Yujie
Kouichi, Sakurai
|
論文抄録 |
|
|
内容記述タイプ |
Other |
|
内容記述 |
差分プライバシーは,訓練過程で雑音を追加することにより,結果において個人データが識別されないようにするデータプライバシー技術であり,個人のプライバシーを保護する.この方法は機械学習の分野で広く利用されている.しかし,差分プライバシーの手法は訓練中にニューラルネットワークモデルに雑音を投入するため,モデルの精度が悪影響を受ける.雑音がモデルの精度に与える影響を軽減するために,漸進学習を組み合わせた訓練方法を提案する.漸進学習を活用することで,訓練過程でモデルに蓄積される雑音を減少させ,同じプライバシーレベルを維持しつつ,モデルの精度を向上させることができる.現在,畳み込みニューラルネットワークなどのモデルで実験を行った.異なるプライバシーレベルにおいて,漸進学習方法を使用したモデルは最終的な精度が一般的なモデルよりも1%から5%高くなり,プライバシーレベルが高いほど,漸進学習方法の精度向上が顕著になる. |
論文抄録(英) |
|
|
内容記述タイプ |
Other |
|
内容記述 |
Differential privacy is a data privacy technique that ensures individual data cannot be identified in the results by adding noise during the training process, thereby protecting personal privacy. This method has been widely applied in the field of machine learning. However, since differential privacy methods introduce noise into the neural network models during training, the model accuracy is negatively affected. To mitigate the impact of noise on model accuracy, we propose a training method that combines progressive learning. By leveraging progressive learning, the accumulation of noise in the model during training can be reduced, improving model accuracy while maintaining the same level of privacy. Currently, we have conducted experiments on models such as convolutional neural networks. At different privacy levels, models using the progressive learning method achieve 1% to 5% higher final accuracy than general models, with the accuracy improvement becoming more significant as the privacy level increases. |
書誌情報 |
コンピュータセキュリティシンポジウム2024論文集
p. 248-252,
発行日 2024-10-15
|
出版者 |
|
|
言語 |
ja |
|
出版者 |
情報処理学会 |