@techreport{oai:ipsj.ixsq.nii.ac.jp:00224740,
 author = {岡田, 健汰 and Yuntao, Wang and 宮地, 充子},
 issue = {64},
 month = {Feb},
 note = {連合学習は IoT の分野で注目されている技術の一つである.連合学習では各参加者の学習モデルをサーバで集約し,集約結果を用いて参加者はさらに学習モデルを更新できる.しかし連合学習においてモデル関連データを交換すると,参加者の学習重みが漏れる可能性がある.2017 年に Phong らにより,加法準同型暗号を用いた連合学習モデルが提案された.さらに,2021 年に Li らにより,chain-PPFL と呼ばれるプライバシー保護連合学習モデルが提案された.しかし,これらのシステムにおいて,以下の 2 つの脆弱性があると考えられる.1) 参加者が他の参加者の学習重みを知る可能性がある.2) サーバから学習パラメータが漏洩する可能性がある.本論文では準同型暗号の性質を利用した,プライバシー保護連合学習モデル TAHE-PPFL を提案する.TAHE-PPFL ではサーバが参加者の安全性において以下の 3 つの特徴がある.1) 参加者が他の参加者の学習重みを知ることを防ぐ.2) サーバから漏れる情報も暗号化される.3) 耐量子計算機暗号を用いることで量子計算機の時代でも安全に利用できる., Federated learning (FL) is one of the technologies that have attracted much attention in the field of IoT. In federated learning, the learning models of each participant are aggregated at the server, and the participants can further update their learning models using the aggregated results. However, exchanging model-related data in federated learning may lead to the leakage of participants' learning weights. In 2017, a federated learning model using additively homomorphic encryption (AHE) was proposed by Phong et al. Furthermore, a privacy-preserving federated learning framework called chain-PPFL was proposed by Li et al. in 2021. However, the following two vulnerabilities are considered in these systems. 1)A participant may know the learning weights of other participants. 2)The learning parameters may be leaked from the server. In this paper, we propose a privacy-preserving federated learning model, TAHE-PPFL, which utilize the properties of homomorphic encryption. TAHE-PPFL has the following three features in terms of security. 1)It Prevents participants from knowing the learning weights of other participants. 2)Information leaked from the server is also encrypted. 3)It can be used securely even in the era of quantum computers by using quantum computer resistant cryptography.},
 title = {準同型暗号を用いたプライバシー保護連合学習},
 year = {2023}
}