ログイン 新規登録
言語:

WEKO3

  • トップ
  • ランキング
To
lat lon distance
To

Field does not validate



インデックスリンク

インデックスツリー

メールアドレスを入力してください。

WEKO

One fine body…

WEKO

One fine body…

アイテム

  1. シンポジウム
  2. シンポジウムシリーズ
  3. DAシンポジウム
  4. 2024

ニューロモーフィックチップAkidaにおける低消費エネルギ推論のためのゼロアウェアなSNN学習法

https://ipsj.ixsq.nii.ac.jp/records/238263
https://ipsj.ixsq.nii.ac.jp/records/238263
971a996d-29d9-47b3-99b5-4454e8962a91
名前 / ファイル ライセンス アクション
IPSJ-DAS2024039.pdf IPSJ-DAS2024039.pdf (1.0 MB)
 2026年8月21日からダウンロード可能です。
Copyright (c) 2024 by the Information Processing Society of Japan
非会員:¥660, IPSJ:学会員:¥330, SLDM:会員:¥0, DLIB:会員:¥0
Item type Symposium(1)
公開日 2024-08-21
タイトル
タイトル ニューロモーフィックチップAkidaにおける低消費エネルギ推論のためのゼロアウェアなSNN学習法
タイトル
言語 en
タイトル Zero-Aware SNN Learning Method for Low-Energy Inference on the Neuromorphic Chip Akida
言語
言語 jpn
キーワード
主題Scheme Other
主題 機械学習
資源タイプ
資源タイプ識別子 http://purl.org/coar/resource_type/c_5794
資源タイプ conference paper
著者所属
京都大学大学院情報学研究科
著者所属
京都大学大学院情報学研究科
著者所属
京都大学大学院情報学研究科
著者所属(英)
en
Graduate School of Informatics, Kyoto University
著者所属(英)
en
Graduate School of Informatics, Kyoto University
著者所属(英)
en
Graduate School of Informatics, Kyoto University
著者名 羽原, 丈博

× 羽原, 丈博

羽原, 丈博

Search repository
佐藤, 高史

× 佐藤, 高史

佐藤, 高史

Search repository
粟野, 皓光

× 粟野, 皓光

粟野, 皓光

Search repository
著者名(英) Takehiro, Habara

× Takehiro, Habara

en Takehiro, Habara

Search repository
Takashi, Sato

× Takashi, Sato

en Takashi, Sato

Search repository
Hiromitsu, Awano

× Hiromitsu, Awano

en Hiromitsu, Awano

Search repository
論文抄録
内容記述タイプ Other
内容記述 スパイキングニューラルネットワーク(SNN)とそのハードウェアアクセラレータである Akida は,様々なセンサと接続しエッジデバイス上で高度な認知処理が可能だと注目されている.そのため推論性能を保ちながら消費エネルギを効率的に削減する必要がある.従来の SNN ではスパイクが入力されると逐次計算しており,SNN の消費エネルギはスパイク数に依存する.そのためスパイク数を削減することで,少ない消費エネルギで推論可能できた.しかし,Akida ではスパイクを時間方向に積分したスパイク数で計算するため,消費エネルギを削減するにはスパイク数だけでなく発火するニューロンの数も削減する必要がある.本研究では Akida で SNN を推論する際に,発火するニューロンを限定するための学習方法を提案する.具体的には,0 でない活性化値または重みの数に応じて,ネットワークにペナルティを与えるように学習させることで実現する.2 層の畳み込み層と 2 層の全結合層から構成されるネットワークに提案手法を適用し学習させた結果,MNIST 画像分類タスクにおいて,活性化値を 70.1%,重みを 14.2% よりスパースにすることが可能で,画像一枚あたり 12.2% の消費エネルギを削減できることが明らかになった.
論文抄録(英)
内容記述タイプ Other
内容記述 Spiking Neural Networks (SNNs) and their hardware accelerator, Akida, have garnered attention for their ability to perform advanced cognitive processing on edge devices by connecting with various sensors. Therefore, it is necessary to reduce energy consumption while maintaining inference performance efficiently. Traditional SNNs perform sequential calculations whenever a spike is input, and their energy consumption depends on the number of spikes. By reducing the number of spikes, inference can be performed with lower energy consumption. However, in Akida, calculations are performed based on the number of spikes integrated over time, so it is necessary to reduce not only the number of spikes but also the number of neurons firing to save energy. This study proposes a learning method to limit the number of firing neurons when performing SNN inference on Akida. Specifically, this is achieved by penalizing the network based on the number of non-zero activations or weights during training. By applying the proposed method to a network consisting of two convolutional layers and two fully connected layers, it was found that in the MNIST image classification task, activations could be made 70.1% sparser and weights 14.2% sparser, resulting in a 12.2% reduction in energy consumption per image.
書誌情報 DAシンポジウム2024論文集

巻 2024, p. 248-254, 発行日 2024-08-21
出版者
言語 ja
出版者 情報処理学会
戻る
0
views
See details
Views

Versions

Ver.1 2025-01-19 08:37:13.156064
Show All versions

Share

Mendeley Twitter Facebook Print Addthis

Cite as

エクスポート

OAI-PMH
  • OAI-PMH JPCOAR
  • OAI-PMH DublinCore
  • OAI-PMH DDI
Other Formats
  • JSON
  • BIBTEX

Confirm


Powered by WEKO3


Powered by WEKO3