Item type |
SIG Technical Reports(1) |
公開日 |
2021-02-25 |
タイトル |
|
|
タイトル |
クロスビュー・非局所ニューラルネットワークによる自己視点映像と固定視点映像間の共通特徴量の学習 |
タイトル |
|
|
言語 |
en |
|
タイトル |
Cross-view Non-local Neural Networks for Joint Representation Learning between First and Third Person Videos |
言語 |
|
|
言語 |
eng |
キーワード |
|
|
主題Scheme |
Other |
|
主題 |
セッション6-2 |
資源タイプ |
|
|
資源タイプ識別子 |
http://purl.org/coar/resource_type/c_18gh |
|
資源タイプ |
technical report |
著者所属 |
|
|
|
東京大学情報理工学研究科 |
著者所属 |
|
|
|
東京大学情報理工学研究科 |
著者所属 |
|
|
|
東京大学情報理工学研究科 |
著者所属(英) |
|
|
|
en |
|
|
Graduate School of IST, the University of Tokyo |
著者所属(英) |
|
|
|
en |
|
|
Graduate School of IST, the University of Tokyo |
著者所属(英) |
|
|
|
en |
|
|
Graduate School of IST, the University of Tokyo |
著者名 |
シュ, テツコウ
菅野, 裕介
佐藤, 洋一
|
著者名(英) |
Zhehao, Zhu
Yusuke, Sugano
Yoichi, Sato
|
論文抄録 |
|
|
内容記述タイプ |
Other |
|
内容記述 |
This paper introduces a cross-view non-local neural network to learn joint representations for understanding human activities from videos captured by wearable and fixed cameras. The key element is a non-local model to extract and enhance the global visual feature similarity across the views while reducing dissimilarity. The proposed method achieves a state-of-the-art performance on a cross-view action recognition benchmark dataset. |
書誌レコードID |
|
|
収録物識別子タイプ |
NCID |
|
収録物識別子 |
AA11131797 |
書誌情報 |
研究報告コンピュータビジョンとイメージメディア(CVIM)
巻 2021-CVIM-225,
号 48,
p. 1-6,
発行日 2021-02-25
|
ISSN |
|
|
収録物識別子タイプ |
ISSN |
|
収録物識別子 |
2188-8701 |
Notice |
|
|
|
SIG Technical Reports are nonrefereed and hence may later appear in any journals, conferences, symposia, etc. |
出版者 |
|
|
言語 |
ja |
|
出版者 |
情報処理学会 |