Item type |
SIG Technical Reports(1) |
公開日 |
2019-03-10 |
タイトル |
|
|
タイトル |
組込みプロセッサ用AI処理向けベクトルユニットの設計 |
タイトル |
|
|
言語 |
en |
|
タイトル |
Design of Vector Unit for AI Acceleration in Embedded Processor |
言語 |
|
|
言語 |
jpn |
キーワード |
|
|
主題Scheme |
Other |
|
主題 |
マイクロアーキテクチャ |
資源タイプ |
|
|
資源タイプ識別子 |
http://purl.org/coar/resource_type/c_18gh |
|
資源タイプ |
technical report |
著者所属 |
|
|
|
慶應義塾大学理工学部 |
著者所属 |
|
|
|
慶應義塾大学理工学部 |
著者所属 |
|
|
|
慶應義塾大学理工学部 |
著者所属 |
|
|
|
慶應義塾大学理工学部 |
著者所属(英) |
|
|
|
en |
|
|
Faculty of Science and Technology, Keio University |
著者所属(英) |
|
|
|
en |
|
|
Faculty of Science and Technology, Keio University |
著者所属(英) |
|
|
|
en |
|
|
Faculty of Science and Technology, Keio University |
著者所属(英) |
|
|
|
en |
|
|
Faculty of Science and Technology, Keio University |
著者名 |
井出, 陽介
鈴木, 宏海
森, 祐樹
山崎, 信行
|
著者名(英) |
Yosuke, Ide
Hiromi, Suzuki
Yuki, Mori
Nobuyuki, Yamasaki
|
論文抄録 |
|
|
内容記述タイプ |
Other |
|
内容記述 |
近年,AI アプリケーションが幅広い分野で用いられるようになり,その学習や認識に用いられるニューラルネットワーク (NN) の高速化手法が盛んに研究されている.High-Performance Computing (HPC) 向けの研究では GPU や FPGA,特定 NN 特化の ASIC を用いた手法等が提案されている.しかしながら,これらの手法は電力消費や面積の観点から組込み向けに適用するのは難しい.一方で組込みプロセッサの中にはマルチメディア処理向けにベクトルユニットを備えているものがある.本研究では組込みプロセッサである Responsive Multithreaded Processor (RMTP) のベクトルユニットを拡張し,畳み込みニューラルネットワークで頻繁に実行される畳み込み演算の性能向上を図った.ベクトル演算は長いベクトルに対する性能向上の効果が大きい一方で,二次元状でサイズの小さいカーネルを用いる畳み込み演算に対しては非効率となってしまう.そこで,ロード時に一次元のベクトルになるようデータ整形を行うことによって畳み込み演算の効率向上を図った.さらに,ベクトルユニットに低精度な演算を用いた SIMD 演算を導入し,複数のカーネルに対する畳み込み演算を並列に行うことで,計算精度とトレードオフに処理の高速化を行った. |
論文抄録(英) |
|
|
内容記述タイプ |
Other |
|
内容記述 |
In recent years, AI is applied in wide range of fields. Its learning and recognition are based on Neural Network (NN), which are actively studied. Although for High-Performance Computing (HPC), GPU, FPGA or ASIC specialized to certain NN is proposed, it is not easy to apply them to embedded applications because of power consumption and area constraints. On the other hand, some embedded processors adopt vector units for multimedia application. In this study, extended vector load function and lower precision SIMD operation are added to vector units to accelerate convolution, which is executed in Convolutional Neural Network. |
書誌レコードID |
|
|
収録物識別子タイプ |
NCID |
|
収録物識別子 |
AA11451459 |
書誌情報 |
研究報告システムとLSIの設計技術(SLDM)
巻 2019-SLDM-187,
号 23,
p. 1-6,
発行日 2019-03-10
|
ISSN |
|
|
収録物識別子タイプ |
ISSN |
|
収録物識別子 |
2188-8639 |
Notice |
|
|
|
SIG Technical Reports are nonrefereed and hence may later appear in any journals, conferences, symposia, etc. |
出版者 |
|
|
言語 |
ja |
|
出版者 |
情報処理学会 |