Item type |
SIG Technical Reports(1) |
公開日 |
2018-02-28 |
タイトル |
|
|
タイトル |
組込み機器に向けたCaffeの性能評価 |
タイトル |
|
|
言語 |
en |
|
タイトル |
Performance Evaluation of Deep Learning Framework “Caffe” for Embedded Devices |
言語 |
|
|
言語 |
jpn |
キーワード |
|
|
主題Scheme |
Other |
|
主題 |
深層学習 |
資源タイプ |
|
|
資源タイプ識別子 |
http://purl.org/coar/resource_type/c_18gh |
|
資源タイプ |
technical report |
著者所属 |
|
|
|
三菱電機株式会社情報技術総合研究所 |
著者所属 |
|
|
|
三菱電機株式会社情報技術総合研究所 |
著者所属(英) |
|
|
|
en |
|
|
Information Technology R&D Center, Mitsubishi Electric Corporation |
著者所属(英) |
|
|
|
en |
|
|
Information Technology R&D Center, Mitsubishi Electric Corporation |
著者名 |
平森, 将裕
攝津, 敦
|
著者名(英) |
Masahiro, Hiramori
Atsushi, Settsu
|
論文抄録 |
|
|
内容記述タイプ |
Other |
|
内容記述 |
ディープラーニングは画像処理や音声処理,自然言語処理等に広く利用されているが,高い演算性能と大容量のメモリが必要となるため,リソース制限が厳しい組込み機器では性能が課題となる.そこで今回,組込み機器におけるディープラーニングの推論性能の改善指針を得るべく,汎用 PC と組込み機器である Raspberry Pi 3,R-Car スタータキット Premier の 3 つの機器上で,ディープラーニングのフレームワークである Caffe の推論処理におけるリソース使用量を測定し,比較 ・ 評価を行った.本評価では,メモリ帯域,メモリ使用量,CPU の使用コア数,GPU の観点で Caffe の推論処理を評価した.その結果,組込み機器においては,モデルのコンパクト化が重要であり,大規模なモデルにおいてはメモリ帯域が推論時間に影響を与えることが分かった.一方,小規模なモデルにおいては CPU より GPU の方が推論時間が長く,この原因の調査については今後の課題である. |
論文抄録(英) |
|
|
内容記述タイプ |
Other |
|
内容記述 |
Since deep learining has been used for a wide variety of tasks such as image recogniton, speech recognition, and natural language processing, it remains a challenge to use them in resource-constrained devices with limited computational power and memory capacity. In this paper, we present our attempt to evaluate the performance of deep learning framework “Caffe” on embedded devices. We focus on evaluating the inference time and memory consumption of Caffe with four popular types of network models on three different types of hardware platforms. According to our results, we find that large scale models is much slower than small scale models in view of computational power differences. And inference time of large scale models on CPU is affected by memory bandwidth. It indicates that compacting network models is a key factor for embedded devices. However, inference time of small scale models on GPU is slower than that of CPU. Our evaluation can be a reference to improving performance of deep learning on embedded devices. |
書誌レコードID |
|
|
収録物識別子タイプ |
NCID |
|
収録物識別子 |
AA12149313 |
書誌情報 |
研究報告組込みシステム(EMB)
巻 2018-EMB-47,
号 30,
p. 1-6,
発行日 2018-02-28
|
ISSN |
|
|
収録物識別子タイプ |
ISSN |
|
収録物識別子 |
2188-868X |
Notice |
|
|
|
SIG Technical Reports are nonrefereed and hence may later appear in any journals, conferences, symposia, etc. |
出版者 |
|
|
言語 |
ja |
|
出版者 |
情報処理学会 |