| Item type |
Symposium(1) |
| 公開日 |
2022-08-24 |
| タイトル |
|
|
タイトル |
ハードウェアリソースを削減したLSTMアクセラレータ |
| タイトル |
|
|
言語 |
en |
|
タイトル |
An LSTM Accelerator with Reduced Hardware Resources (version 2022/7/28) |
| 言語 |
|
|
言語 |
jpn |
| キーワード |
|
|
主題Scheme |
Other |
|
主題 |
ポスター |
| 資源タイプ |
|
|
資源タイプ識別子 |
http://purl.org/coar/resource_type/c_5794 |
|
資源タイプ |
conference paper |
| 著者所属 |
|
|
|
三重大学大学院工学研究科情報工学専攻 |
| 著者所属 |
|
|
|
三重大学大学院工学研究科情報工学専攻 |
| 著者名 |
岡, 大智
高木, 一義
|
| 著者名(英) |
Daichi, Oka
Kazuyoshi, Takagi
|
| 論文抄録 |
|
|
内容記述タイプ |
Other |
|
内容記述 |
長・短期記憶 (LSTM) は,回帰型ニューラルネットワーク (Recurrent Neural Network: RNN) アーキテクチャの一種で,時系列データを学習することができる.本研究では FPGA を搭載した組み込み機器用の LSTM アクセラレータを設計し,ハードウェアリソースおよび速度を評価する.重み行列の刈り込みによる処理の簡略化により LSTM のサイズを小さくすると同時に動作の高速化を図る.スループットを向上させるため LSTM 内で用いられるパラメータを FIFO を用いたタスク間での受け渡しを行い,あわせて並列化を行う.また,ハードウェアリソースの削減のために LSTM 全体の量子化および活性化関数の区分線形近似を行う.これらの最適化手法を C++ 言語を用いた高位合成によって実装する. |
| 論文抄録(英) |
|
|
内容記述タイプ |
Other |
|
内容記述 |
Long Short-Term Memory (LSTM) is a kind of Recurrent Neural Network (RNN) architecture, which can learn time-series data. In this paper, we implement FPGA-based LSTM accelerator and evaluate hardware resources and run time. By pruning the weight matrix, the size of LSTM is reduced. Using a FIFO and parallelization, the throughput is increased. To reduce hardware resources, we implemented quantization of the parameters and piecewise linear approximation of the activation functions. These optimization methods are implemented by high-level synthesis using the C++ language. |
| 書誌情報 |
DAシンポジウム2022論文集
巻 2022,
p. 145-150,
発行日 2022-08-24
|
| 出版者 |
|
|
言語 |
ja |
|
出版者 |
情報処理学会 |