@techreport{oai:ipsj.ixsq.nii.ac.jp:00237117, author = {陳, 春璐 and 連, 卓涛 and 蘇, 春華 and 櫻井, 幸一}, issue = {1}, month = {Jul}, note = {連合学習 (Federated Learning) は,エッジデバイス上でモデルを直接訓練することで,データをローカルに保持し,プライバシーを向上させる解決策を提供する.しかし,連合学習の進展にもかかわらず,データの動的な性質は,過去の知識を忘れずに適応する能力を持つモデルを必要としており,この課題の解決が連合継続学習 (Federated Continual Learning) の導入につながっている.本研究は,タスク固有の層を備えたアーキテクチャを導入することで,各層が異なる知識を学習し,維持するように設計されており,以前に学習した情報の損失を効果的に防止する.さらに,ローカル情報のプライバシーを強化するため,連合学習におけるプライバシー保護技術として差分プライバシーを導入し,その効果を評価する.MNIST データセットを使用してプライバシーと性能を実験的に評価した.独立同分布と非独立同分布の二つのデータ分布を設定し,それぞれにおけるノイズがモデルの精度に与える影響を評価した.実験結果により,提案手法は運用環境の変化に効果的に適応し,破局的忘却のリスクを低減し,モデルの性能とデータの完全性を向上させることが示された.}, title = {連合継続学習における差分プライバシーの実験的評価}, year = {2024} }