@inproceedings{oai:ipsj.ixsq.nii.ac.jp:00240917, author = {橋本, 俊甫 and 田中, 俊昭 and 栗原, 淳 and Shunsuke, Hashimoto and Toshiaki, Tanaka and Jun, Kurihara}, book = {コンピュータセキュリティシンポジウム2024論文集}, month = {Oct}, note = {分散型の機械学習手法である連合学習では,クライアントが自身のデータセットを保持したままローカルで学習し,サーバに学習結果の更新情報を送ることでグローバルモデルを共同で構築する.このとき,信頼のできないクライアント(ビザンチンクライアント)が存在し,それらが偽の学習結果を送信することで,グローバルモデルの信頼性や性能を脅かす可能性がある(ビザンチン攻撃).本稿では,ビザンチン攻撃に耐性のある連合学習を実現するために,クライアントの行動に基づく監視メカニズムを提案する.提案手法は,クライアントが送信する更新情報から時間的な一貫性や空間的な類似性を評価するために,収束,重みの変動,空間的分布の3つの観点を監視することで,クライアントの異常な行動を検出する.このとき,提案手法はより現実的な環境を想定し,チーフクライアントの存在や中央サーバで性能を測るデータセットを不要とする.提案手法を用いることで,偽装攻撃,シビル攻撃,およびデータポイズニングを組み合わせたビザンチン攻撃を検出できることを,実験により明らかにする.さらに,ビザンチンクライアントが存在しない場合と同程度の精度を持つグローバルモデルを構築できることを示す., Federated learning (FL) is a privacy-aware decentralized machine learning approach. In FL, clients perform local training on their datasets and send the model updates to the central server to build the global model. In FL environments, there may exist malicious clients, called Byzantine clients, that aims to corrupt the reliability and the performance of the global model. In this paper, we propose a monitoring mechanism based on client tracking to realize the Byzantine resilience in FL. The proposed method detects anomalous client behavior by monitoring three aspects: convergence, weight variation and spatial distribution, in order to assess temporal consistency and spatial similarity from the updates sent by the clients. The proposed method assumes a more realistic environment and does not require the presence of a chief client or a dataset to measure performance on the central server. Experimental results demonstrates that our method can correctly detect Byzantine attacks combined with Pretence, Sybil and data poisoning attacks and maintain the accuracy of the global model by eliminating them from the FL process.}, pages = {1281--1288}, publisher = {情報処理学会}, title = {クライアントの行動に基づくビザンチン耐性のある連合学習の監視メカニズム}, year = {2024} }