@inproceedings{oai:ipsj.ixsq.nii.ac.jp:00240780,
 author = {楊, 伯軒 and 顧, 玉杰 and 櫻井, 幸一 and Yang, Boxuan and Gu, Yujie and Kouichi, Sakurai},
 book = {コンピュータセキュリティシンポジウム2024論文集},
 month = {Oct},
 note = {差分プライバシーは,訓練過程で雑音を追加することにより,結果において個人データが識別されないようにするデータプライバシー技術であり,個人のプライバシーを保護する.この方法は機械学習の分野で広く利用されている.しかし,差分プライバシーの手法は訓練中にニューラルネットワークモデルに雑音を投入するため,モデルの精度が悪影響を受ける.雑音がモデルの精度に与える影響を軽減するために,漸進学習を組み合わせた訓練方法を提案する.漸進学習を活用することで,訓練過程でモデルに蓄積される雑音を減少させ,同じプライバシーレベルを維持しつつ,モデルの精度を向上させることができる.現在,畳み込みニューラルネットワークなどのモデルで実験を行った.異なるプライバシーレベルにおいて,漸進学習方法を使用したモデルは最終的な精度が一般的なモデルよりも1%から5%高くなり,プライバシーレベルが高いほど,漸進学習方法の精度向上が顕著になる., Differential privacy is a data privacy technique that ensures individual data cannot be identified in the results by adding noise during the training process, thereby protecting personal privacy. This method has been widely applied in the field of machine learning. However, since differential privacy methods introduce noise into the neural network models during training, the model accuracy is negatively affected. To mitigate the impact of noise on model accuracy, we propose a training method that combines progressive learning. By leveraging progressive learning, the accumulation of noise in the model during training can be reduced, improving model accuracy while maintaining the same level of privacy. Currently, we have conducted experiments on models such as convolutional neural networks. At different privacy levels, models using the progressive learning method achieve 1% to 5% higher final accuracy than general models, with the accuracy improvement becoming more significant as the privacy level increases.},
 pages = {248--252},
 publisher = {情報処理学会},
 title = {漸進学習を用いた差分プライバシーの精度向上},
 year = {2024}
}