@techreport{oai:ipsj.ixsq.nii.ac.jp:00219006, author = {山﨑, 雄輔 and 高瀬, 英希}, issue = {17}, month = {Jul}, note = {スマート社会の実現には,データの秘匿性の担保や無線多重アクセスにより生じる通信オーバーヘッドの課題から,中央サーバでのデータ収集にこだわらず,分散保持されたデータを活用することが必要である.連合学習(Federated Learning,FL)は,プライバシー保護と通信効率に優れた分散学習を実現する有望な技術である.FL に関する既存研究の多くは,全クライアントに対して共通のグローバルモデルを提供する.しかし,単一のグローバルモデルが多様なクライアントの環境に適応することは困難であり,特に,大規模なクライアント集団においてこれは顕著となる.そこで,中央サーバと各クライアントがそれぞれ異なるモデルを保持しつつ,フォグコンピューティングを活用し双方向の知識蒸留を行う新たな FL のフレームワークである Fog-enabled Federated learning with Mutual Knowledge Distillation(F2MKD)を提案する.フォグサーバが接続されたクライアントからデータを収集可能という前提のもとで,従来の加重平均に代わり,知識蒸留に基づくモデル統合を実現する.知識蒸留を活用することで,F2MKD はクライアントの仕様やローカル環境に応じた多様な個別のモデルと,汎用的なグローバルモデルの双方を提供することができる.さらに,フォグサーバ上での双方向の知識蒸留により,クライアント側の計算負荷を軽減し,リソースに制約のあるクライアントも FL に参加可能となる.シミュレーション評価により,クライアントの保持するデータの統計的属性がフォグサーバの地理的位置と強く関連付けられている場合に,F2MKD はクライアントモデルの性能を著しく向上させることを示した.本研究は,クライアントに寄り添った分散機械学習のための新たな道を開くと考える.}, title = {フォグコンピューティングを活用したサーバクライアント間双方向知識蒸留を用いる連合学習手法F2MKD}, year = {2022} }