Item type |
SIG Technical Reports(1) |
公開日 |
2023-02-23 |
タイトル |
|
|
タイトル |
Vision Transformerの係数付き1bit化 |
タイトル |
|
|
言語 |
en |
|
タイトル |
Binarization of Vision Transformer with Scaling Factors |
言語 |
|
|
言語 |
jpn |
資源タイプ |
|
|
資源タイプ識別子 |
http://purl.org/coar/resource_type/c_18gh |
|
資源タイプ |
technical report |
著者所属 |
|
|
|
東京理科大学理工学部情報科学科 |
著者所属 |
|
|
|
東京理科大学理工学部情報科学科 |
著者所属 |
|
|
|
東京理科大学理工学部情報科学科 |
著者所属 |
|
|
|
東京理科大学理工学部情報科学科 |
著者所属(英) |
|
|
|
en |
|
|
Department of Information Science ,Tokyo University of Science |
著者所属(英) |
|
|
|
en |
|
|
Department of Information Science ,Tokyo University of Science |
著者所属(英) |
|
|
|
en |
|
|
Department of Information Science ,Tokyo University of Science |
著者所属(英) |
|
|
|
en |
|
|
Department of Information Science ,Tokyo University of Science |
著者名 |
佐藤, 駿
澤田, 隼
大村, 英史
桂田, 浩一
|
著者名(英) |
Shun, Sato
Shun, Sawada
Hidefumi, Ohmura
Koichi, Katsurada
|
論文抄録 |
|
|
内容記述タイプ |
Other |
|
内容記述 |
1bit 化とはニューラルネットワークのモデルの数値表現を 1bit 化することで,大幅な計算速度の向上と省メモリ化を実現する最適化手法である.1bit 化は画像処理で幅広く用いられる畳み込みニューラルネットワーク(CNN)を対象に盛んに研究されているものの,画像分類モデルとして近年優れた性能を示している Vision Transformer(ViT)を対象とするものは活発に検討されていない.そこで本研究では ViT を対象に 1bit 化を検討する.ViT は多層パーセプトロン(MLP)と Multi-Head Self Attention(MHSA)の繰り返しが主な構造となっている.本研究ではこの繰り返し構造において,1bit 化の適用箇所や 1bit 化の手法の違いによってどのように精度が変化するかについて実験を行った.その結果,浮動小数点の係数を使った畳み込み層の 1bit 化手法が ViT においても有効なことを確認した.さらに MLP 部のみの 1bit 化,あるいは MHSA 部のみの 1bit 化を行うことによって性能が大きく改善されることも明らかにした. |
論文抄録(英) |
|
|
内容記述タイプ |
Other |
|
内容記述 |
1bit neural network optimization is an optimization technique that achieves a significant increase in computational speed and memory savings by converting the numerical representation of the model to 1bit. Although binarization has been actively studied on convolutional neural network (CNN) few studies have conducted on Vision Transformer (ViT) that has attracted attention as a new image classification model. In this report, we investigate effectiveness of binarization on ViT. The main components of ViT are multi-layer perceptron (MLP) and multi-head self-attention (MHSA), which are repeatedly appeared in the basic blocks of ViT. In the experiment, we examined how the performance of ViT changes according to the components where binarization is applied and the variations of binarization. As a result, we confirmed that binarization with floating-point scaling factor for the convolutional layer is effective. Experimental results also revealed that the performances are improved even if the binarization is applied only to the MLP or the MHSA component. |
書誌レコードID |
|
|
収録物識別子タイプ |
NCID |
|
収録物識別子 |
AA11131797 |
書誌情報 |
研究報告コンピュータビジョンとイメージメディア(CVIM)
巻 2023-CVIM-233,
号 30,
p. 1-6,
発行日 2023-02-23
|
ISSN |
|
|
収録物識別子タイプ |
ISSN |
|
収録物識別子 |
2188-8701 |
Notice |
|
|
|
SIG Technical Reports are nonrefereed and hence may later appear in any journals, conferences, symposia, etc. |
出版者 |
|
|
言語 |
ja |
|
出版者 |
情報処理学会 |