@techreport{oai:ipsj.ixsq.nii.ac.jp:00228879, author = {明野, 樹紀 and 山崎, 比伊呂 and 浅井, 哲也 and 安藤, 洸太 and Itsuki, Akeno and Hiiro, Yamazaki and Tetsuya, Asai and Kota, Ando}, issue = {12}, month = {Nov}, note = {本研究ではニューラルネットワークによる学習のできるハードウェアのアーキテクチャを検討評価し,その FPGA 実装を行った.現在ニューラルネットワークを用いた AI は広く使われており,AI の学習計算をするための専用ハードウェアの開発が急がれている.そこでハードウェア指向のオプティマイザとして Holmes があり,これを用いると他のオプティマイザに比べて小さいメモリの割に早い収束をする学習ができることがわかっている.よって本論文では Holmes を搭載し,また並列化とパイプライン化によって大きなスループットが出せるハードウェアのアーキテクチャを提案した.また,そのアーキテクチャをもとにプロトタイプとして XOR,NOR の学習を行うハードウェアを FPGA に実装し,資源の評価を行った., We propose a processor architecture for neural network (NN) training in edge and prototype it on an FPGA (Field--Programmable Gate Array). Currently, neural networks are widely employed in artificial intelligence (AI), and there is a pressing need for the development of dedicated hardware for edge side AI training. To address this demand, the Holmes optimizer has been proposed and proved to have capability of faster convergence with a smaller memory footprint compared to other optimizers. Therefore, this paper presents a hardware architecture that incorporates Holmes and leverages parallelization and pipelining techniques to achieve significant throughput improvements. Furthermore, based on this architecture, we evalu- ated the hardware resource consumption of the proposed architecture by implementing it on an FPGA. This research focuses on proposing a hardware architecture suitable for neural network learning and its FPGA implementation. It contributes to the advancement of hardware for neural network-based AI learning, which is of paramount importance given the widespread usage of neural networks in AI applications.}, title = {多重量子化オプティマイザを用いたエッジAIオンライン学習アーキテクチャの提案}, year = {2023} }