ログイン 新規登録
言語:

WEKO3

  • トップ
  • ランキング
To
lat lon distance
To

Field does not validate



インデックスリンク

インデックスツリー

メールアドレスを入力してください。

WEKO

One fine body…

WEKO

One fine body…

アイテム

  1. 研究報告
  2. コンピュータビジョンとイメージメディア(CVIM)
  3. 2023
  4. 2023-CVIM-233

Vision Transformerの係数付き1bit化

https://ipsj.ixsq.nii.ac.jp/records/224596
https://ipsj.ixsq.nii.ac.jp/records/224596
eb3b7388-a055-4a27-8055-0aa32812ba91
名前 / ファイル ライセンス アクション
IPSJ-CVIM23233030.pdf IPSJ-CVIM23233030.pdf (1.1 MB)
Copyright (c) 2023 by the Institute of Electronics, Information and Communication Engineers This SIG report is only available to those in membership of the SIG.
CVIM:会員:¥0, DLIB:会員:¥0
Item type SIG Technical Reports(1)
公開日 2023-02-23
タイトル
タイトル Vision Transformerの係数付き1bit化
タイトル
言語 en
タイトル Binarization of Vision Transformer with Scaling Factors
言語
言語 jpn
資源タイプ
資源タイプ識別子 http://purl.org/coar/resource_type/c_18gh
資源タイプ technical report
著者所属
東京理科大学理工学部情報科学科
著者所属
東京理科大学理工学部情報科学科
著者所属
東京理科大学理工学部情報科学科
著者所属
東京理科大学理工学部情報科学科
著者所属(英)
en
Department of Information Science ,Tokyo University of Science
著者所属(英)
en
Department of Information Science ,Tokyo University of Science
著者所属(英)
en
Department of Information Science ,Tokyo University of Science
著者所属(英)
en
Department of Information Science ,Tokyo University of Science
著者名 佐藤, 駿

× 佐藤, 駿

佐藤, 駿

Search repository
澤田, 隼

× 澤田, 隼

澤田, 隼

Search repository
大村, 英史

× 大村, 英史

大村, 英史

Search repository
桂田, 浩一

× 桂田, 浩一

桂田, 浩一

Search repository
著者名(英) Shun, Sato

× Shun, Sato

en Shun, Sato

Search repository
Shun, Sawada

× Shun, Sawada

en Shun, Sawada

Search repository
Hidefumi, Ohmura

× Hidefumi, Ohmura

en Hidefumi, Ohmura

Search repository
Koichi, Katsurada

× Koichi, Katsurada

en Koichi, Katsurada

Search repository
論文抄録
内容記述タイプ Other
内容記述 1bit 化とはニューラルネットワークのモデルの数値表現を 1bit 化することで,大幅な計算速度の向上と省メモリ化を実現する最適化手法である.1bit 化は画像処理で幅広く用いられる畳み込みニューラルネットワーク(CNN)を対象に盛んに研究されているものの,画像分類モデルとして近年優れた性能を示している Vision Transformer(ViT)を対象とするものは活発に検討されていない.そこで本研究では ViT を対象に 1bit 化を検討する.ViT は多層パーセプトロン(MLP)と Multi-Head Self Attention(MHSA)の繰り返しが主な構造となっている.本研究ではこの繰り返し構造において,1bit 化の適用箇所や 1bit 化の手法の違いによってどのように精度が変化するかについて実験を行った.その結果,浮動小数点の係数を使った畳み込み層の 1bit 化手法が ViT においても有効なことを確認した.さらに MLP 部のみの 1bit 化,あるいは MHSA 部のみの 1bit 化を行うことによって性能が大きく改善されることも明らかにした.
論文抄録(英)
内容記述タイプ Other
内容記述 1bit neural network optimization is an optimization technique that achieves a significant increase in computational speed and memory savings by converting the numerical representation of the model to 1bit. Although binarization has been actively studied on convolutional neural network (CNN) few studies have conducted on Vision Transformer (ViT) that has attracted attention as a new image classification model. In this report, we investigate effectiveness of binarization on ViT. The main components of ViT are multi-layer perceptron (MLP) and multi-head self-attention (MHSA), which are repeatedly appeared in the basic blocks of ViT. In the experiment, we examined how the performance of ViT changes according to the components where binarization is applied and the variations of binarization. As a result, we confirmed that binarization with floating-point scaling factor for the convolutional layer is effective. Experimental results also revealed that the performances are improved even if the binarization is applied only to the MLP or the MHSA component.
書誌レコードID
収録物識別子タイプ NCID
収録物識別子 AA11131797
書誌情報 研究報告コンピュータビジョンとイメージメディア(CVIM)

巻 2023-CVIM-233, 号 30, p. 1-6, 発行日 2023-02-23
ISSN
収録物識別子タイプ ISSN
収録物識別子 2188-8701
Notice
SIG Technical Reports are nonrefereed and hence may later appear in any journals, conferences, symposia, etc.
出版者
言語 ja
出版者 情報処理学会
戻る
0
views
See details
Views

Versions

Ver.1 2025-01-19 13:05:19.358871
Show All versions

Share

Mendeley Twitter Facebook Print Addthis

Cite as

エクスポート

OAI-PMH
  • OAI-PMH JPCOAR
  • OAI-PMH DublinCore
  • OAI-PMH DDI
Other Formats
  • JSON
  • BIBTEX

Confirm


Powered by WEKO3


Powered by WEKO3