WEKO3
アイテム
画像間対応点検知のためのTransformerを用いたモデルの小型化
https://ipsj.ixsq.nii.ac.jp/records/226664
https://ipsj.ixsq.nii.ac.jp/records/226664e9284110-f786-431d-837f-e7f95f6ab0f9
| 名前 / ファイル | ライセンス | アクション |
|---|---|---|
|
|
Copyright (c) 2023 by the Information Processing Society of Japan
|
|
| オープンアクセス | ||
| Item type | SIG Technical Reports(1) | |||||||||
|---|---|---|---|---|---|---|---|---|---|---|
| 公開日 | 2023-06-22 | |||||||||
| タイトル | ||||||||||
| タイトル | 画像間対応点検知のためのTransformerを用いたモデルの小型化 | |||||||||
| タイトル | ||||||||||
| 言語 | en | |||||||||
| タイトル | Compaction of a Transformer Model for Finding Correspondences in Images | |||||||||
| 言語 | ||||||||||
| 言語 | jpn | |||||||||
| キーワード | ||||||||||
| 主題Scheme | Other | |||||||||
| 主題 | 数理モデル化と問題解決1 | |||||||||
| 資源タイプ | ||||||||||
| 資源タイプ識別子 | http://purl.org/coar/resource_type/c_18gh | |||||||||
| 資源タイプ | technical report | |||||||||
| 著者所属 | ||||||||||
| 株式会社オープンストリーム/電気通信大学 | ||||||||||
| 著者所属 | ||||||||||
| 電気通信大学 | ||||||||||
| 著者所属(英) | ||||||||||
| en | ||||||||||
| Open Stream, Inc. / University of Electro-Communications | ||||||||||
| 著者所属(英) | ||||||||||
| en | ||||||||||
| University of Electro-Communications | ||||||||||
| 著者名 |
寺田, 英雄
× 寺田, 英雄
× 庄野, 逸
|
|||||||||
| 論文抄録 | ||||||||||
| 内容記述タイプ | Other | |||||||||
| 内容記述 | Visual OdometryやImage Matchingのための,画像間の対応点検知について,近年Transformerを用いた深層学習型モデルが有望視されている(例:LoFTR,COTR,CasMTR,など).これらは種々のベンチマークで最先端クラスの性能を示すが,モデル容量が大きく,小型自律ロボット等のエッジ環境では扱いにくい.そこで本研究では,COTRを例にとり蒸留技術を用いたモデルの小型化を試みる.COTRはDCNNによるバックボーン部とTransformer部を含むが,バックボーン部には応答ベースの蒸留が有効であり,Transformer部には,PCAを用いた行列の低ランク分解を用いたパラメータ削減と蒸留が有効であった. | |||||||||
| 論文抄録(英) | ||||||||||
| 内容記述タイプ | Other | |||||||||
| 内容記述 | Deep learning models that use Transformer (e.g., LoFTR, COTR, CasMTR, etc.) have recently shown promise in detecting correspondence points between images for Visual Odometry, Image Matching, and other applications. While these models demonstrate state-of-the-art performance in various benchmarks, their large size makes them challenging to handle in edge environments, such as small autonomous robots. In this study, we attempted to reduce the size of the COTR model using distillation techniques. We found that response-based distillation was effective for the backbone DCNN part of COTR, while low-rank matrix decomposition using PCA and distillation were effective for the transformer part. | |||||||||
| 書誌レコードID | ||||||||||
| 収録物識別子タイプ | NCID | |||||||||
| 収録物識別子 | AA12055912 | |||||||||
| 書誌情報 |
研究報告バイオ情報学(BIO) 巻 2023-BIO-74, 号 9, p. 1-8, 発行日 2023-06-22 |
|||||||||
| ISSN | ||||||||||
| 収録物識別子タイプ | ISSN | |||||||||
| 収録物識別子 | 2188-8590 | |||||||||
| Notice | ||||||||||
| SIG Technical Reports are nonrefereed and hence may later appear in any journals, conferences, symposia, etc. | ||||||||||
| 出版者 | ||||||||||
| 言語 | ja | |||||||||
| 出版者 | 情報処理学会 | |||||||||