Item type |
SIG Technical Reports(1) |
公開日 |
2022-01-17 |
タイトル |
|
|
タイトル |
FPGAクラスタ向けCNN推論用アクセラレータの一検討 |
タイトル |
|
|
言語 |
en |
|
タイトル |
A study of an accelerator for CNN inference on FPGA clusters |
言語 |
|
|
言語 |
jpn |
キーワード |
|
|
主題Scheme |
Other |
|
主題 |
ニューラルネットワーク |
資源タイプ |
|
|
資源タイプ識別子 |
http://purl.org/coar/resource_type/c_18gh |
|
資源タイプ |
technical report |
著者所属 |
|
|
|
熊本大学大学院自然科学教育部/理化学研究所計算科学研究センター(R-CSS) |
著者所属 |
|
|
|
熊本大学大学院自然科学教育部/理化学研究所計算科学研究センター(R-CSS) |
著者所属 |
|
|
|
理化学研究所計算科学研究センター(R-CSS) |
著者所属 |
|
|
|
熊本大学大学院先端科学研究部/理化学研究所計算科学研究センター(R-CSS) |
著者所属(英) |
|
|
|
en |
|
|
Graduate School of Natural Science and Technology Kumamoto University / RIKEN Center for Computational Science (R-CCS) |
著者所属(英) |
|
|
|
en |
|
|
Graduate School of Natural Science and Technology Kumamoto University / RIKEN Center for Computational Science (R-CCS) |
著者所属(英) |
|
|
|
en |
|
|
RIKEN Center for Computational Science (R-CCS) |
著者所属(英) |
|
|
|
en |
|
|
Faculty of Advanced Science and Technology Kumamoto University / RIKEN Center for Computational Science (R-CCS) |
著者名 |
境, 琳太郎
中原, 康宏
佐野, 健太郎
飯田, 全広
|
著者名(英) |
Rintaro, Sakai
Yasuhiro, Nakahara
Kentaro, Sano
Masahiro, Iida
|
論文抄録 |
|
|
内容記述タイプ |
Other |
|
内容記述 |
本研究では FPGA クラスタ上で CNN の処理を高速化する CNN アクセラレータを提案する.FPGA 毎に処理を分散,並列化することで CNN の推論処理をより高速化することを目的とする.本研究では FPGA クラスタにおける CNN 推論性能の事前評価として,FPGA 用 CNN アクセラレータのアーキテクチャの単体性能評価,また複数 FPGA で CNN 処理を分割した場合の CNN 処理性能の評価を行う.アーキテクチャは本研究室で開発された再構成性をもつ AI チップ ReNA をもとに開発を行う.ReNA アーキテクチャを FPGA に最適化をした場合,最適化する前のものと比べて CNN の推論処理性能が 64% 向上した.また,複数 FPGA で CNN 処理を分割する方法では,FPGA の個数が 16 個に増えても並列化効率を最大で 90% に保てることがわかった. |
論文抄録(英) |
|
|
内容記述タイプ |
Other |
|
内容記述 |
In this study, we propose a CNN accelerator for FPGA clusters, which accelerates the CNN inference process by distributing and parallelizing it to each FPGA.As a preliminary evaluation of CNN inference performance in FPGA clusters, we evaluate the stand-alone performance of the architecture of the CNN accelerator for FPGAs, and also evaluate the performance when the CNN processing is divided among multiple FPGAs.This architecture is developed based on our previously proposed reconfigurable AI chip, ReNA.By optimizing this architecture for FPGAs, we found that the inference performance of FPGAs is improved: the CNN throughput increased by 64% compared to the pre-optimization level.By dividing CNN processing among multiple FPGAs, parallelization efficiency can be kept at a maximum of 90% even when number of FPGAs increases to 16. |
書誌レコードID |
|
|
収録物識別子タイプ |
NCID |
|
収録物識別子 |
AA11451459 |
書誌情報 |
研究報告システムとLSIの設計技術(SLDM)
巻 2022-SLDM-197,
号 13,
p. 1-6,
発行日 2022-01-17
|
ISSN |
|
|
収録物識別子タイプ |
ISSN |
|
収録物識別子 |
2188-8639 |
Notice |
|
|
|
SIG Technical Reports are nonrefereed and hence may later appear in any journals, conferences, symposia, etc. |
出版者 |
|
|
言語 |
ja |
|
出版者 |
情報処理学会 |