ログイン 新規登録
言語:

WEKO3

  • トップ
  • ランキング
To
lat lon distance
To

Field does not validate



インデックスリンク

インデックスツリー

メールアドレスを入力してください。

WEKO

One fine body…

WEKO

One fine body…

アイテム

  1. シンポジウム
  2. シンポジウムシリーズ
  3. コンピュータセキュリティシンポジウム
  4. 2024

分散型Proof-of-Deep-Learningに向けた集約ゼロ知識証明の応用

https://ipsj.ixsq.nii.ac.jp/records/240916
https://ipsj.ixsq.nii.ac.jp/records/240916
c18105ff-4d65-4b1c-97f5-3ec356b88d3e
名前 / ファイル ライセンス アクション
IPSJ-CSS2024170.pdf IPSJ-CSS2024170.pdf (553.6 kB)
 2026年10月15日からダウンロード可能です。
Copyright (c) 2024 by the Information Processing Society of Japan
非会員:¥660, IPSJ:学会員:¥330, CSEC:会員:¥0, SPT:会員:¥0, DLIB:会員:¥0
Item type Symposium(1)
公開日 2024-10-15
タイトル
言語 ja
タイトル 分散型Proof-of-Deep-Learningに向けた集約ゼロ知識証明の応用
タイトル
言語 en
タイトル Application of Aggregated Zero-Knowledge Proofs toward Distributed Proof-of-Deep-Learning
言語
言語 jpn
キーワード
主題Scheme Other
主題 分散並列学習,集約ゼロ知識証明,Proof-of-Deep-Learning
資源タイプ
資源タイプ識別子 http://purl.org/coar/resource_type/c_5794
資源タイプ conference paper
著者所属
パナソニックホールディングス株式会社
著者所属
パナソニックホールディングス株式会社
著者所属
パナソニックホールディングス株式会社
著者所属(英)
en
Panasonic Holdings Corporation
著者所属(英)
en
Panasonic Holdings Corporation
著者所属(英)
en
Panasonic Holdings Corporation
著者名 高橋, 康

× 高橋, 康

高橋, 康

Search repository
西田, 直央

× 西田, 直央

西田, 直央

Search repository
矢内, 直人

× 矢内, 直人

矢内, 直人

Search repository
著者名(英) Yasushi, Takahashi

× Yasushi, Takahashi

en Yasushi, Takahashi

Search repository
Naohisa, Nishida

× Naohisa, Nishida

en Naohisa, Nishida

Search repository
Naoto, Yanai

× Naoto, Yanai

en Naoto, Yanai

Search repository
論文抄録
内容記述タイプ Other
内容記述 機械学習のモデル生成は一般に計算負荷が大きく,計算資源の小さいユーザには困難になりつつある.近年では学習そのものを分散化する手法も知られているが,学習済みモデルを公開せずに行うことが
望ましい状況には既存手法は適していない.本稿では,個別に生成したゼロ知識証明を一個に集約できる集約ゼロ知識証明を用いて,各参加者がモデル生成計算結果を公開することなく,計算資源の小さいユーザも参加可能な学習方式をまず提案する.提案手法では,各参加者がローカルでモデルの一部だけを学習した上で,その証明を作成し,それらのモデルを公開せずにモデルと証明両方を集約することで,モデル全体を検証して利用可能にする.さらに提案手法において,不正な学習を検知できることも理論的に証明する.また,この提案手法について,集約ゼロ知識証明機能と各参加者の学習機能の実装を通じ,提案手法全体の計算時間を実験評価したところ,本稿で用いた実装ではCommit の計算時間が,モデルパラメータのデータサイズに起因して大きくなること,また,層の数が倍になるにつれ学習時間は1.5 倍になることを確認した.本稿では,提案手法の応用として,機械学習における学習計算をブロックチェーンのマイニング処理として利用し,学習に貢献した参加者に報酬を与える分散型Proof-of-Deep-Learning (PoDL) も提案する.さらに提案した分散型PoDL は,不正な学習が行われたとしてもその検知が可能であることを証明する.
論文抄録(英)
内容記述タイプ Other
内容記述 Mining in Bitcoin's Proof-of-Work has been criticized for its extremely high power consumption. As a method to make the "Work" more meaningful, Proof-of-Deep Learning (PoDL), which involves generating machine learning models as the "Work," has been proposed. However, the computational cost of model generation is generally significant, preventing users with limited computational resources from participating. On the other hand, simply dividing the model generation computation among participants would result in participants having to publicly disclose their computation results for free when the consensus on the entire model cannot be reached. Therefore, we propose a method called AZK-PoDL, which allows users with limited computational resources to participate without unnecessarily disclosing their model generation computation results. In the proposed method, each participant creates a part of the model and its proof of learning locally, and further evaluates the accuracy of the entire model using Aggregated Zero-Knowledge Proofs (AZK). This achieves a PoDL where each user's model can remain confidential until it is adopted, ensuring the safety of the model and its contribution to learning. In this paper, we demonstrate that it is possible to detect when a participant uses learning data other than the specified one for model training by using the security of AZK. Furthermore, we implement the AZK step and the model aggregation step for each participant and estimate the overall computation time of AZK-PoDL.
書誌情報 コンピュータセキュリティシンポジウム2024論文集

p. 1273-1280, 発行日 2024-10-15
出版者
言語 ja
出版者 情報処理学会
戻る
0
views
See details
Views

Versions

Ver.1 2025-01-19 07:48:38.093089
Show All versions

Share

Mendeley Twitter Facebook Print Addthis

Cite as

エクスポート

OAI-PMH
  • OAI-PMH JPCOAR
  • OAI-PMH DublinCore
  • OAI-PMH DDI
Other Formats
  • JSON
  • BIBTEX

Confirm


Powered by WEKO3


Powered by WEKO3