ログイン 新規登録
言語:

WEKO3

  • トップ
  • ランキング
To
lat lon distance
To

Field does not validate



インデックスリンク

インデックスツリー

メールアドレスを入力してください。

WEKO

One fine body…

WEKO

One fine body…

アイテム

  1. シンポジウム
  2. シンポジウムシリーズ
  3. DAシンポジウム
  4. 2023

ヘブ則に基づく動的重み調整手法を利用したスパイキングニューラルネットワークの低レイテンシ・低消費エネルギ推論

https://ipsj.ixsq.nii.ac.jp/records/227375
https://ipsj.ixsq.nii.ac.jp/records/227375
20291567-58cc-464d-8276-9fad8df29fce
名前 / ファイル ライセンス アクション
IPSJ-DAS2023010.pdf IPSJ-DAS2023010.pdf (1.2 MB)
Copyright (c) 2023 by the Information Processing Society of Japan
オープンアクセス
Item type Symposium(1)
公開日 2023-08-23
タイトル
タイトル ヘブ則に基づく動的重み調整手法を利用したスパイキングニューラルネットワークの低レイテンシ・低消費エネルギ推論
タイトル
言語 en
タイトル Low-Latency, Low-Power Inference of Spiking Neural Networks Using Dynamic Weight Adjustment Method based on Hebbian Rule
言語
言語 jpn
キーワード
主題Scheme Other
主題 回路設計
資源タイプ
資源タイプ識別子 http://purl.org/coar/resource_type/c_5794
資源タイプ conference paper
著者所属
京都大学大学院情報学研究科
著者所属
京都大学大学院情報学研究科
著者所属
京都大学大学院情報学研究科
著者所属(英)
en
Graduate School of Informatics, Kyoto University
著者所属(英)
en
Graduate School of Informatics, Kyoto University
著者所属(英)
en
Graduate School of Informatics, Kyoto University
著者名 羽原, 丈博

× 羽原, 丈博

羽原, 丈博

Search repository
佐藤, 高史

× 佐藤, 高史

佐藤, 高史

Search repository
粟野, 皓光

× 粟野, 皓光

粟野, 皓光

Search repository
著者名(英) Takehiro, Habara

× Takehiro, Habara

en Takehiro, Habara

Search repository
Takashi, Sato

× Takashi, Sato

en Takashi, Sato

Search repository
Hiromitsu, Awano

× Hiromitsu, Awano

en Hiromitsu, Awano

Search repository
論文抄録
内容記述タイプ Other
内容記述 スパイキングニューラルネットワーク(SNN)は非同期かつスパースな処理によって消費エネルギを大幅に削減できるとして注目されている.また近年では人工ニューラルネットワーク(ANN)の学習結果を SNN へと変換する技術が開発され,ImageNet 等の複雑なデータセットにおいても ANN と遜色無い性能が達成されつつある.しかし,ANN の連続的な活性化値をスパイクという離散的な情報で表現しようとすると,過剰もしくは過小なニューロン発火に伴う情報伝達ロスが発生してしまう.そこで本研究では,過剰もしくは過少な発火を抑えるべく,推論時に発火タイミングによって重みを更新するヘブ則を利用したファインチューニングを提案する.具体的には,発火しやすいニューロンがより発火するように,逆に発火しにくいニューロンはより発火しにくくなるようにニューロン間の重みを増減させる.3 層の畳み込み層と 1 層の全結合層から構成されるネットワークに提案手法を適用した結果,MNIST 画像分類タスクにおいて,レイテンシを 87.98%・消費エネルギを 88.02% 削減出来ることが明らかになった.
論文抄録(英)
内容記述タイプ Other
内容記述 Spiking Neural Networks (SNNs) have emerged as a promising research area due to their asynchronous and sparse processing, enabling significant reductions in energy consumption. In recent years, an innovative technology has been developed to convert the learned outcomes of Artificial Neural Networks (ANNs) into SNNs, demonstrating comparable performance to ANNs on complex datasets like ImageNet. However, the translation of continuous activation values from ANNs into discrete spike information can lead to information transmission losses, caused by excessive or insufficient neuron firing. To alleviate this problem, we propose a fine-tuning technique using Hebbian learning, which updates weights based on firing timings, to suppress excessive or insufficient firing during inference. Specifically, the weights between neurons are increased or decreased to make neurons more or less likely to fire, promoting easier firing for neurons that tend to fire and reducing firing for neurons that tend to fire less. Applying this approach to a network consisting of three convolutional layers and one fully connected layer, the results showed an 87.98% reduction in latency and an 88.02% reduction in energy consumption for the MNIST image classification task.
書誌情報 DAシンポジウム2023論文集

巻 2023, p. 56-62, 発行日 2023-08-23
出版者
言語 ja
出版者 情報処理学会
戻る
0
views
See details
Views

Versions

Ver.1 2025-01-19 12:11:37.649346
Show All versions

Share

Mendeley Twitter Facebook Print Addthis

Cite as

エクスポート

OAI-PMH
  • OAI-PMH JPCOAR
  • OAI-PMH DublinCore
  • OAI-PMH DDI
Other Formats
  • JSON
  • BIBTEX

Confirm


Powered by WEKO3


Powered by WEKO3