ログイン 新規登録
言語:

WEKO3

  • トップ
  • ランキング


インデックスリンク

インデックスツリー

  • RootNode

メールアドレスを入力してください。

WEKO

One fine body…

WEKO

One fine body…

アイテム

  1. 研究報告
  2. システムとLSIの設計技術(SLDM)
  3. 2018
  4. 2018-SLDM-183

CNN計算の省メモリ化のためのカーネル・クラスタリング手法の検討

https://ipsj.ixsq.nii.ac.jp/records/186502
https://ipsj.ixsq.nii.ac.jp/records/186502
74e1adff-3060-4060-8e72-c55cd0c205b6
名前 / ファイル ライセンス アクション
IPSJ-SLDM18183032.pdf IPSJ-SLDM18183032.pdf (902.3 kB)
Copyright (c) 2018 by the Institute of Electronics, Information and Communication Engineers This SIG report is only available to those in membership of the SIG.
SLDM:会員:¥0, DLIB:会員:¥0
Item type SIG Technical Reports(1)
公開日 2018-02-28
タイトル
タイトル CNN計算の省メモリ化のためのカーネル・クラスタリング手法の検討
タイトル
言語 en
タイトル A Study of Kernel Clustering for Reducing Memory Footprint of CNN
言語
言語 jpn
キーワード
主題Scheme Other
主題 深層学習
資源タイプ
資源タイプ識別子 http://purl.org/coar/resource_type/c_18gh
資源タイプ technical report
著者所属
電気通信大学
著者所属
電気通信大学
著者所属
名古屋工業大学
著者所属
名古屋工業大学
著者所属
電気通信大学
著者所属
電気通信大学
著者所属(英)
en
University of Electro-Comniunications
著者所属(英)
en
University of Electro-Comniunications
著者所属(英)
en
Nagoya Institute of Technology
著者所属(英)
en
Nagoya Institute of Technology
著者所属(英)
en
University of Electro-Comniunications
著者所属(英)
en
University of Electro-Comniunications
著者名 松井, 優樹

× 松井, 優樹

松井, 優樹

Search repository
三輪, 忍

× 三輪, 忍

三輪, 忍

Search repository
進藤, 智司

× 進藤, 智司

進藤, 智司

Search repository
津邑, 公暁

× 津邑, 公暁

津邑, 公暁

Search repository
八巻, 隼人

× 八巻, 隼人

八巻, 隼人

Search repository
本多, 弘樹

× 本多, 弘樹

本多, 弘樹

Search repository
著者名(英) Yuki, Matsui

× Yuki, Matsui

en Yuki, Matsui

Search repository
Shinobu, Miwa

× Shinobu, Miwa

en Shinobu, Miwa

Search repository
Satoshi Shindo

× Satoshi Shindo

en Satoshi Shindo

Search repository
Tomoaki, Tsumura

× Tomoaki, Tsumura

en Tomoaki, Tsumura

Search repository
Hayato, Yamaki

× Hayato, Yamaki

en Hayato, Yamaki

Search repository
Hiroki, Honda

× Hiroki, Honda

en Hiroki, Honda

Search repository
論文抄録
内容記述タイプ Other
内容記述 近年,機械学習の中でも畳み込みニューラル ・ ネットワーク (CNN) が高い認識精度を示すことから,大きな注目を集めている.CNN は深層ニューラル ・ ネットワークであり,規模が大きくパラメータ数も多いことが問題としてあげられる.そのため,個々のパラメータに着目したデータ圧縮手法など,ネットワーク規模を縮小する研究が行われている.しかしながら,CNN 特有の重み (カーネル) 構造の類似性に着目したデータ圧縮手法は報告されていない.そこで我々は,CNN 計算におけるカーネルの構造的意味を持つ最小の単位である 2 次元カーネルの類似性に着目し,クラスタリングと近似を行うことにより CNN 計算の省メモリ化を行う手法を提案している.我々の過去の報告では,少ないカーネル数の CNN に対して少ないクラスタ数でクラスタリングを行った際の提案手法の有効性を示したが,本報告では,より大規模な CNN に対して様々なクラスタ数でクラスタリングを行った際の結果を示す.VGG-16 の全カーネルに対して本手法を適用した結果,最大で 85.6% のカーネルデータを削減しても認識精度を 80% 以上に保つことができた本提案手法は Pruning や量子化と直交した技術であり,これらを併用することでさらなるデータ圧縮が可能である.
論文抄録(英)
内容記述タイプ Other
内容記述 Convolutional Neural Network (CNN) is widely used in the field of image recognition due to the high recognition accuracy. CNN is a sort of deep and large-scale neural networks so that it has numbers of parameters to be used for the computation. There have been many studies of compressing the data of CNN such as reducing the numbers of parameters and bits of parameters. Meanwhile, a well-trained CNN has very regular structure (i.e., 2D kernels) available for data compression, but no study of exploiting this structure for data compression in CNN has been reported so far. We have proposed a technique that clusters 2D kernels trained and replaces them with representative 2D kernels for reducing the number of parameters in CNN. In this paper, we report the experimental results of clustering the overall 2D kernels within VGG-16 with various numbers of clusters. Om experimental results show that the proposed technique can reduce the number of kernels by 85.6% in exchange for a 9% reduction in the recognition accuracy. The proposed technique is orthogonal to the other approaches of compressing the data in CNN, such as pruning and quantization; hence, they can be used together to obtain further gains.
書誌レコードID
収録物識別子タイプ NCID
収録物識別子 AA11451459
書誌情報 研究報告システムとLSIの設計技術(SLDM)

巻 2018-SLDM-183, 号 32, p. 1-6, 発行日 2018-02-28
ISSN
収録物識別子タイプ ISSN
収録物識別子 2188-8639
Notice
SIG Technical Reports are nonrefereed and hence may later appear in any journals, conferences, symposia, etc.
出版者
言語 ja
出版者 情報処理学会
戻る
0
views
See details
Views

Versions

Ver.1 2025-01-20 02:34:33.714197
Show All versions

Share

Mendeley Twitter Facebook Print Addthis

Cite as

エクスポート

OAI-PMH
  • OAI-PMH JPCOAR
  • OAI-PMH DublinCore
  • OAI-PMH DDI
Other Formats
  • JSON
  • BIBTEX

Confirm


Powered by WEKO3


Powered by WEKO3