@article{oai:ipsj.ixsq.nii.ac.jp:00231986, author = {千葉, 雄司 and Yuji, Chiba}, issue = {1}, journal = {情報処理学会論文誌プログラミング(PRO)}, month = {Jan}, note = {畳込みニューラルネットワークは,アプリケーション開発の有用な手段だが,多くの積和演算やメモリを必要とするため,安価な組込みマイコンでは利用しにくい.積和演算ついては,積和演算器の追加による対策が可能であるとしても,メモリの追加は費用対効果に優れず難しい.畳込みニューラルネットワークの計算に必要なメモリを削減する技術として,cascadingや,重みデータの圧縮があるものの,メモリの消費量や,計算速度に与える影響は定かでない.そこで本稿では,cascadingや,重みデータの圧縮に対応した,Arm社の組込みマイコン向け畳込みニューラルネットワークアクセラレータethos-u55および,ethos-u55向けコンパイラvelaを対象として,cascadingや,重みデータの圧縮がメモリの消費量や,計算速度に与える影響を評価した結果を示す., Convolutional neural networks are useful in application development but requires so much mutiply-accmulate computation and memory that it cannot be easily implemented on low-cost embedded microcontrollers. While we can add hardware accelerator for mutiply-accmulate computation at relatively low-cost, we cannot do so for memory. Technologies such as cascading and weight data compression has been presented to reduce memory use by convolutional neural networks, but their effects on computation time and memory use are not clear. In this paper we clarify the effects through the evaluation of Arm ethos-u55 and vela, which are a neural network accelerator and a compiler for it to support features for memory use reduction such as cascading and weight data compression.}, pages = {1--11}, title = {畳込みニューラルネットワーク向け省メモリ化技術の評価}, volume = {17}, year = {2024} }