ログイン 新規登録
言語:

WEKO3

  • トップ
  • ランキング
To
lat lon distance
To

Field does not validate



インデックスリンク

インデックスツリー

メールアドレスを入力してください。

WEKO

One fine body…

WEKO

One fine body…

アイテム

  1. 研究報告
  2. コンピュータビジョンとイメージメディア(CVIM)
  3. 2023
  4. 2023-CVIM-234

Attention機構を用いた物体中心表現学習

https://ipsj.ixsq.nii.ac.jp/records/226000
https://ipsj.ixsq.nii.ac.jp/records/226000
07c334fe-c4d0-4e09-b68e-d6064a932f79
名前 / ファイル ライセンス アクション
IPSJ-CVIM23234056.pdf IPSJ-CVIM23234056.pdf (1.6 MB)
Copyright (c) 2023 by the Institute of Electronics, Information and Communication Engineers This SIG report is only available to those in membership of the SIG.
CVIM:会員:¥0, DLIB:会員:¥0
Item type SIG Technical Reports(1)
公開日 2023-05-11
タイトル
タイトル Attention機構を用いた物体中心表現学習
タイトル
言語 en
タイトル Object-Centric Representation Learning with Attention Mechanism
言語
言語 jpn
キーワード
主題Scheme Other
主題 セッション3
資源タイプ
資源タイプ識別子 http://purl.org/coar/resource_type/c_18gh
資源タイプ technical report
著者所属
産業技術総合研究所
著者所属
産業技術総合研究所
著者所属(英)
en
National Institute of Advanced Industrial Science and Technology
著者所属(英)
en
National Institute of Advanced Industrial Science and Technology
著者名 中田, 秀基

× 中田, 秀基

中田, 秀基

Search repository
麻生, 英樹

× 麻生, 英樹

麻生, 英樹

Search repository
著者名(英) Hidemoto, Nakada

× Hidemoto, Nakada

en Hidemoto, Nakada

Search repository
Hideki, Asoh

× Hideki, Asoh

en Hideki, Asoh

Search repository
論文抄録
内容記述タイプ Other
内容記述 動画像を用いた表現学習では,個々の物体をマスクで分離した上で個別に物体表現を教師なしで学習する手法が広く用いられている.これらの表現学習手法の性能は高く,多くのダウンストリームタスクで高い性能を示しているが,計算量が膨大であるという問題点がある.われわれは,従来の動画表現学習手法である ViMON をベースとし,これに Attention 機構を導入することで,性能を維持しつつ計算量を低減することを試みた.Attention 機構を導入する位置によって 2 つの手法を提案し,それぞれ実装を行い,再構成誤差,実行時間,ダウンストリームタスクの性能で評価を行った.その結果,ベースとなる手法と比較して,より高い性能を示しながら大幅な計算量の低減できることを確認した.
論文抄録(英)
内容記述タイプ Other
内容記述 For object-centric representation learning, several slot-based methods, that separate objects using masks and learn the objects separately, are proposed. While these methods are proved to be useful on various downstream tasks, it is known that they require a significant amount of computation for training. We propose the introduction of attention mechanisms into slot-based method to simplify and speed up the computation. We pick ViMON as the base structure and propose two methods, named AttnViMON and SFA. We evaluate them in terms of reconstruction error and computation time, and a downstream task. The proposed methods demonstrate that they achieve significant speed-up while showing even better performance.
書誌レコードID
収録物識別子タイプ NCID
収録物識別子 AA11131797
書誌情報 研究報告コンピュータビジョンとイメージメディア(CVIM)

巻 2023-CVIM-234, 号 56, p. 1-6, 発行日 2023-05-11
ISSN
収録物識別子タイプ ISSN
収録物識別子 2188-8701
Notice
SIG Technical Reports are nonrefereed and hence may later appear in any journals, conferences, symposia, etc.
出版者
言語 ja
出版者 情報処理学会
戻る
0
views
See details
Views

Versions

Ver.1 2025-01-19 12:36:59.621554
Show All versions

Share

Mendeley Twitter Facebook Print Addthis

Cite as

エクスポート

OAI-PMH
  • OAI-PMH JPCOAR
  • OAI-PMH DublinCore
  • OAI-PMH DDI
Other Formats
  • JSON
  • BIBTEX

Confirm


Powered by WEKO3


Powered by WEKO3