ログイン 新規登録
言語:

WEKO3

  • トップ
  • ランキング
To
lat lon distance
To

Field does not validate



インデックスリンク

インデックスツリー

メールアドレスを入力してください。

WEKO

One fine body…

WEKO

One fine body…

アイテム

  1. 研究報告
  2. エンタテインメントコンピューティング(EC)
  3. 2022
  4. 2022-EC-65

視界外の注目領域の推定

https://ipsj.ixsq.nii.ac.jp/records/220265
https://ipsj.ixsq.nii.ac.jp/records/220265
24694516-1954-4013-a35f-f17ea095c23a
名前 / ファイル ライセンス アクション
IPSJ-EC22065001.pdf IPSJ-EC22065001.pdf (3.1 MB)
Copyright (c) 2022 by the Institute of Electronics, Information and Communication Engineers This SIG report is only available to those in membership of the SIG.
EC:会員:¥0, DLIB:会員:¥0
Item type SIG Technical Reports(1)
公開日 2022-09-29
タイトル
タイトル 視界外の注目領域の推定
タイトル
言語 en
タイトル Estimation of out-of-view attention region
言語
言語 jpn
キーワード
主題Scheme Other
主題 UI/UX1
資源タイプ
資源タイプ識別子 http://purl.org/coar/resource_type/c_18gh
資源タイプ technical report
著者所属
京都大学大学院情報学研究科
著者所属
京都大学大学院情報学研究科
著者所属(英)
en
Dept. of Informatics, Kyoto Univ.
著者所属(英)
en
Dept. of Informatics, Kyoto Univ.
著者名 原, 航基

× 原, 航基

原, 航基

Search repository
中澤, 篤志

× 中澤, 篤志

中澤, 篤志

Search repository
著者名(英) Koki, Hara

× Koki, Hara

en Koki, Hara

Search repository
Atsushi, Nakazawa

× Atsushi, Nakazawa

en Atsushi, Nakazawa

Search repository
論文抄録
内容記述タイプ Other
内容記述 注視行動は人間の外界に対する注意機能にとって重要な要素の一つである.機械学習等による顕著性推定の研究は,与えられた画像や動画のどこに意識を向けているかを推定するものである.一方で日常生活において,人の注意は必ずしも限られた視野領域のみでなく,状況に応じて周辺領域に移動することがある.このような機能が機械学習等で実現できれば,入力された映像外にある重要な情報を予測すること等が可能になる.これを実現するため本研究では,一人称映像の中心部分の画像のみから,広範囲のシーンにおける注視領域を推定するアルゴリズムについて研究を行った.DR(eye)VE による映像+注視点データセットに対し,中心部領域の映像のみを入力として,画面外を含んだ注視領域を推定するアルゴリズムを実装した.RGB 画像のみを入力するネットワークと,RGB 画像とオプティカルフローを両方用いる手法を実装し,従来法(SP Module)と比較した.その結果,RGB 画像のみを入力とした提案法が平均精度 0.957 (????-1 = 0.846) で最もよい結果を示した.このことから,中心領域の画像特徴のみから,画像外に対する注視行動が予測可能であることが確認できた.
論文抄録(英)
内容記述タイプ Other
内容記述 Gazing behavior is one of the most important elements of human attention to the outward things. The study of saliency estimation using machine learning is to estimate the location of attention in a given image or video. On the other hand, in daily life, people’s attention is not necessarily limited to the field of view, but may shift to the surrounding areas depending on the situation. If such function can be realized by machine learning, etc., it will be possible to predict important information located outside of the input video. To realize this function, we studied an algorithm for estimating the gaze area of an entire egocentric video image from only the central part of the image. We implemented the algorithm for estimating the gaze area including outside of the image from the DR(eye)VE video + gaze point dataset, using only the central part video as input. We implemented two networks using only RGB images and using both RGB images and optical flow as input, and compared them with a conventional method (SP Module). The results show that the proposed method with only RGB images as input has the best results with an average accuracy of 0.957 (????-1 = 0.846). This confirms that the proposed method can predict gaze behavior including outside of the image from the image features of the central area only.
書誌レコードID
収録物識別子タイプ NCID
収録物識別子 AA12049625
書誌情報 研究報告エンタテインメントコンピューティング(EC)

巻 2022-EC-65, 号 1, p. 1-6, 発行日 2022-09-29
ISSN
収録物識別子タイプ ISSN
収録物識別子 2188-8914
Notice
SIG Technical Reports are nonrefereed and hence may later appear in any journals, conferences, symposia, etc.
出版者
言語 ja
出版者 情報処理学会
戻る
0
views
See details
Views

Versions

Ver.1 2025-01-19 14:37:22.590636
Show All versions

Share

Mendeley Twitter Facebook Print Addthis

Cite as

エクスポート

OAI-PMH
  • OAI-PMH JPCOAR
  • OAI-PMH DublinCore
  • OAI-PMH DDI
Other Formats
  • JSON
  • BIBTEX

Confirm


Powered by WEKO3


Powered by WEKO3