WEKO3
アイテム
映像閲覧行動の時空間ずれ構造モデルを用いた注視点予測
https://ipsj.ixsq.nii.ac.jp/records/94851
https://ipsj.ixsq.nii.ac.jp/records/948518e25b105-cf77-4323-922a-177395d1fa34
名前 / ファイル | ライセンス | アクション |
---|---|---|
![]()
2100年1月1日からダウンロード可能です。
|
Copyright (c) 2013 by the Institute of Electronics, Information and Communication Engineers
This SIG report is only available to those in membership of the SIG. |
|
CVIM:会員:¥0, DLIB:会員:¥0 |
Item type | SIG Technical Reports(1) | |||||||
---|---|---|---|---|---|---|---|---|
公開日 | 2013-08-26 | |||||||
タイトル | ||||||||
タイトル | 映像閲覧行動の時空間ずれ構造モデルを用いた注視点予測 | |||||||
タイトル | ||||||||
言語 | en | |||||||
タイトル | Gaze Point Prediction with Gap Structure Models | |||||||
言語 | ||||||||
言語 | jpn | |||||||
資源タイプ | ||||||||
資源タイプ識別子 | http://purl.org/coar/resource_type/c_18gh | |||||||
資源タイプ | technical report | |||||||
著者所属 | ||||||||
京都大学大学院情報学研究科 | ||||||||
著者所属 | ||||||||
京都大学大学院情報学研究科 | ||||||||
著者所属 | ||||||||
京都大学大学院情報学研究科 | ||||||||
著者所属(英) | ||||||||
en | ||||||||
Graduate School of Informatics, Kyoto University | ||||||||
著者所属(英) | ||||||||
en | ||||||||
Graduate School of Informatics, Kyoto University | ||||||||
著者所属(英) | ||||||||
en | ||||||||
Graduate School of Informatics, Kyoto University | ||||||||
著者名 |
米谷, 竜
川嶋, 宏彰
松山, 隆司
× 米谷, 竜 川嶋, 宏彰 松山, 隆司
|
|||||||
著者名(英) |
Ryo, Yonetani
Hiroaki, Kawashima
Takashi, Matsuyama
× Ryo, Yonetani Hiroaki, Kawashima Takashi, Matsuyama
|
|||||||
論文抄録 | ||||||||
内容記述タイプ | Other | |||||||
内容記述 | 人間が一般の映像を閲覧する状況では,映像中において人間の視覚的注意を引きつける顕著領域と,実際の注視点との間に時空間的なずれが生まれる.このずれは,顕著領域の変動 (顕著性変動) に対する反応遅れや動き予測に起因するものであり,変動の種類によってその程度が異なる.本研究では,顕著領域・注視点間のずれが持つ構造と顕著性変動の関係性に基づいて,映像から注視点を予測する手法を提案する.提案手法は,注視点に対して時空間ずれをともなって観測される顕著性変動パターンを,単純な変動パターンの組み合わせによって表現する.これにより,「注視点の近傍でどのような顕著性変動パターンがどのような時空間ずれとともに観測されやすいか」 をデータドリブンに学習することによる注視点予測が実現できる. | |||||||
論文抄録(英) | ||||||||
内容記述タイプ | Other | |||||||
内容記述 | When we are watching videos, there exist spatiotemporal gaps between salient regions that attract visual attention and actual points of gaze. These gaps result from reaction delays or anticipation in eye movements toward dynamic changes of the salient regions (saliency dynamics). In this paper, we exploit the underlying structures of the gaps for gaze point prediction from videos. The proposed method involves the relationships between the gaps and the saliency dynamics by introducing localized primitive patterns of salient regions for the description of saliency dynamics. It enables us to learn “what types of saliency dynamics can be observed around the points of gaze” in a data-driven fashion for the gaze point prediction. | |||||||
書誌レコードID | ||||||||
収録物識別子タイプ | NCID | |||||||
収録物識別子 | AA11131797 | |||||||
書誌情報 |
研究報告コンピュータビジョンとイメージメディア(CVIM) 巻 2013-CVIM-188, 号 10, p. 1-6, 発行日 2013-08-26 |
|||||||
Notice | ||||||||
SIG Technical Reports are nonrefereed and hence may later appear in any journals, conferences, symposia, etc. | ||||||||
出版者 | ||||||||
言語 | ja | |||||||
出版者 | 情報処理学会 |