ログイン 新規登録
言語:

WEKO3

  • トップ
  • ランキング


インデックスリンク

インデックスツリー

  • RootNode

メールアドレスを入力してください。

WEKO

One fine body…

WEKO

One fine body…

アイテム

  1. 研究報告
  2. コンピュータビジョンとイメージメディア(CVIM)
  3. 2007
  4. 87(2007-CVIM-160)

視線運動の離散性を用いた視線認識

https://ipsj.ixsq.nii.ac.jp/records/51988
https://ipsj.ixsq.nii.ac.jp/records/51988
b0f06c84-6690-4ead-81c8-a58fa7c2f7bf
名前 / ファイル ライセンス アクション
IPSJ-CVIM07160013.pdf IPSJ-CVIM07160013.pdf (685.7 kB)
Copyright (c) 2007 by the Information Processing Society of Japan
オープンアクセス
Item type SIG Technical Reports(1)
公開日 2007-09-03
タイトル
タイトル 視線運動の離散性を用いた視線認識
タイトル
言語 en
タイトル Gaze Recognition Using Discreteness of its Movement
言語
言語 jpn
資源タイプ
資源タイプ識別子 http://purl.org/coar/resource_type/c_18gh
資源タイプ technical report
著者所属
早稲田大学理工学部
著者所属
早稲田大学理工学総合研究センター
著者所属
早稲田大学理工学部
著者所属(英)
en
School of Science and Engineering, Waseda University
著者所属(英)
en
Advanced Research Institute for Science and Engineering, Waseda University
著者所属(英)
en
School of Science and Engineering, Waseda University
著者名 山畠, 利彦 藤江, 真也 小林, 哲則

× 山畠, 利彦 藤江, 真也 小林, 哲則

山畠, 利彦
藤江, 真也
小林, 哲則

Search repository
著者名(英) Toshihiko, YAMAHATA Shinya, FUJIE Tetsunori, KOBAYASHI

× Toshihiko, YAMAHATA Shinya, FUJIE Tetsunori, KOBAYASHI

en Toshihiko, YAMAHATA
Shinya, FUJIE
Tetsunori, KOBAYASHI

Search repository
論文抄録
内容記述タイプ Other
内容記述 視線認識を目の部分画像を用いて行う際に,視線運動の離散性を利用して,複数フレームから得られる情報を統合することを試みる.単一の画像から得られる情報は,視線方向以外にも個人性や照明条件等の環境に関する情報を多く含んでいる.個人性や環境の画像に与える影響は大きく,数多くデータを収集して個人・環境非依存のモデルを作ると,曖昧性が大きく,良い性能が得られないことが知られている.一方,一つの対話セッションの間,対話相手や照明条件が急に変化することは極めて稀である.従って,同一対話内における複数フレームの画像を用いて得られる差分情報は個人性や環境の影響を受けにくいと考えられる.また,人の視線は瞬時的変化と安定を繰り返す傾向にある.本研究ではこの瞬時的変化を捉えて時間を分割し,単一画像・複数画像による情報を,状態遷移モデルを用いて逐次検証することで,対話全体に亘って最も尤もらしい視線方向の列を求めることを試みた.実際の対話データを用いて行った実験で,単一画像を用いた場合に 0.66 であったF 値が,0.89 まで向上した.
論文抄録(英)
内容記述タイプ Other
内容記述 We've tried to improve gaze recognition accuracy by integrating information of image sequenceand utilizing discreteness of gaze movement. Single image of eye region gives information about not only gaze direction but also individuality and environments, such as illumination conditions. Since such information, not essentially related to gaze direction, affects image strongly, the person environment independent gaze model which is trained with a lot of image including such information might not work so well because of its ambiguity. On the other hand, during one dialogue session, the dialogue partner never changes and it is quite rare that the environment changes rapidly. Thus, information given by difference between the frames should not be affected by individuality and environment. Moreover, human tends to repeat instantaneous change and brief fix of gaze direction. In this study, we capture these instantaneous change and confirm the information given by both single image and multiple images using state transition model to obtain the most likely sequence of gaze directions. In the experiment with actual dialogue data, our method achieved 0.89 of F-value while only single image achieved 0.66.
書誌レコードID
収録物識別子タイプ NCID
収録物識別子 AA11131797
書誌情報 情報処理学会研究報告コンピュータビジョンとイメージメディア(CVIM)

巻 2007, 号 87(2007-CVIM-160), p. 77-82, 発行日 2007-09-03
Notice
SIG Technical Reports are nonrefereed and hence may later appear in any journals, conferences, symposia, etc.
出版者
言語 ja
出版者 情報処理学会
戻る
0
views
See details
Views

Versions

Ver.1 2025-01-22 06:58:35.661062
Show All versions

Share

Mendeley Twitter Facebook Print Addthis

Cite as

小林, 哲則, 2007: 情報処理学会, 77–82 p.

Loading...

エクスポート

OAI-PMH
  • OAI-PMH JPCOAR
  • OAI-PMH DublinCore
  • OAI-PMH DDI
Other Formats
  • JSON
  • BIBTEX

Confirm


Powered by WEKO3


Powered by WEKO3