ログイン 新規登録
言語:

WEKO3

  • トップ
  • ランキング
To
lat lon distance
To

Field does not validate



インデックスリンク

インデックスツリー

メールアドレスを入力してください。

WEKO

One fine body…

WEKO

One fine body…

アイテム

  1. 論文誌(ジャーナル)
  2. Vol.63
  3. No.5

パイプライン並列分散深層学習の一実装手法の評価

https://doi.org/10.20729/00217821
https://doi.org/10.20729/00217821
fcb3cd2c-d396-43b3-8d16-682bfac0f030
名前 / ファイル ライセンス アクション
IPSJ-JNL6305003.pdf IPSJ-JNL6305003.pdf (1.5 MB)
Copyright (c) 2022 by the Information Processing Society of Japan
オープンアクセス
Item type Journal(1)
公開日 2022-05-15
タイトル
タイトル パイプライン並列分散深層学習の一実装手法の評価
タイトル
言語 en
タイトル Evaluation of an Implementation Method for Pipeline Parallelism Distributed Deep Learning
言語
言語 jpn
キーワード
主題Scheme Other
主題 [特集:情報システム論文] 分散深層学習,並列処理
資源タイプ
資源タイプ識別子 http://purl.org/coar/resource_type/c_6501
資源タイプ journal article
ID登録
ID登録 10.20729/00217821
ID登録タイプ JaLC
著者所属
東京工科大学
著者所属
電気通信大学
著者所属
東京工科大学
著者所属(英)
en
Tokyo University of Technology
著者所属(英)
en
The University of Electro-Communications
著者所属(英)
en
Tokyo University of Technology
著者名 滝澤, 尚輝

× 滝澤, 尚輝

滝澤, 尚輝

Search repository
矢崎, 俊志

× 矢崎, 俊志

矢崎, 俊志

Search repository
石畑, 宏明

× 石畑, 宏明

石畑, 宏明

Search repository
著者名(英) Naoki, Takisawa

× Naoki, Takisawa

en Naoki, Takisawa

Search repository
Syunji, Yazaki

× Syunji, Yazaki

en Syunji, Yazaki

Search repository
Hiroaki, Ishihata

× Hiroaki, Ishihata

en Hiroaki, Ishihata

Search repository
論文抄録
内容記述タイプ Other
内容記述 本論文では,並列計算機におけるパイプライン並列分散深層学習の一実装手法の評価・分析を行う.パイプライン並列ではニューラルネットワークモデルを分割し,各プロセスに割り当てる.ハードウェア効率を向上させるため,ミニバッチを分割したマイクロバッチを用いて各プロセスの処理をオーバラップする.パイプライン並列の利点はマイクロバッチ処理のオーバラップによる高速化と,メモリ消費の分散である.本研究では,パイプライン並列におけるニューラルネットワークモデルの分割の記述方法を提案する.全結合層32層からなるシンプルなネットワークを用いてパイプライン並列の高速化の効果について分析を行う.VGG16とResNet50を用いて,複雑なモデルにおけるパイプライン並列の評価を行う.
論文抄録(英)
内容記述タイプ Other
内容記述 In this paper, we evaluate and analyze an implementation method of pipeline parallelism distributed deep learning on parallel computers. In pipeline parallelism, a neural network model is partitioned and assigned to each process. To improve hardware efficiency, we use microbatches, which are divided minibatches, to overlap the processing of each process. The advantage of pipeline parallelism is that the overlapping of microbatch processes increases the speed and distributes the memory consumtion. In this study, we propose a method for describing the partitioning of neural network models in pipeline parallelism. We analyze the speedup effect of pipeline parallelism using a simple network with 32 fully connected layers. Using VGG16 and ResNet50, we evaluate the pipeline parallelism.
書誌レコードID
収録物識別子タイプ NCID
収録物識別子 AN00116647
書誌情報 情報処理学会論文誌

巻 63, 号 5, p. 1206-1215, 発行日 2022-05-15
ISSN
収録物識別子タイプ ISSN
収録物識別子 1882-7764
戻る
0
views
See details
Views

Versions

Ver.1 2025-01-19 15:15:42.063266
Show All versions

Share

Mendeley Twitter Facebook Print Addthis

Cite as

エクスポート

OAI-PMH
  • OAI-PMH JPCOAR
  • OAI-PMH DublinCore
  • OAI-PMH DDI
Other Formats
  • JSON
  • BIBTEX

Confirm


Powered by WEKO3


Powered by WEKO3