WEKO3
-
RootNode
アイテム
視線運動の離散性を用いた視線認識
https://ipsj.ixsq.nii.ac.jp/records/51988
https://ipsj.ixsq.nii.ac.jp/records/51988b0f06c84-6690-4ead-81c8-a58fa7c2f7bf
名前 / ファイル | ライセンス | アクション |
---|---|---|
![]() |
Copyright (c) 2007 by the Information Processing Society of Japan
|
|
オープンアクセス |
Item type | SIG Technical Reports(1) | |||||||
---|---|---|---|---|---|---|---|---|
公開日 | 2007-09-03 | |||||||
タイトル | ||||||||
タイトル | 視線運動の離散性を用いた視線認識 | |||||||
タイトル | ||||||||
言語 | en | |||||||
タイトル | Gaze Recognition Using Discreteness of its Movement | |||||||
言語 | ||||||||
言語 | jpn | |||||||
資源タイプ | ||||||||
資源タイプ識別子 | http://purl.org/coar/resource_type/c_18gh | |||||||
資源タイプ | technical report | |||||||
著者所属 | ||||||||
早稲田大学理工学部 | ||||||||
著者所属 | ||||||||
早稲田大学理工学総合研究センター | ||||||||
著者所属 | ||||||||
早稲田大学理工学部 | ||||||||
著者所属(英) | ||||||||
en | ||||||||
School of Science and Engineering, Waseda University | ||||||||
著者所属(英) | ||||||||
en | ||||||||
Advanced Research Institute for Science and Engineering, Waseda University | ||||||||
著者所属(英) | ||||||||
en | ||||||||
School of Science and Engineering, Waseda University | ||||||||
著者名 |
山畠, 利彦
藤江, 真也
小林, 哲則
× 山畠, 利彦 藤江, 真也 小林, 哲則
|
|||||||
著者名(英) |
Toshihiko, YAMAHATA
Shinya, FUJIE
Tetsunori, KOBAYASHI
× Toshihiko, YAMAHATA Shinya, FUJIE Tetsunori, KOBAYASHI
|
|||||||
論文抄録 | ||||||||
内容記述タイプ | Other | |||||||
内容記述 | 視線認識を目の部分画像を用いて行う際に,視線運動の離散性を利用して,複数フレームから得られる情報を統合することを試みる.単一の画像から得られる情報は,視線方向以外にも個人性や照明条件等の環境に関する情報を多く含んでいる.個人性や環境の画像に与える影響は大きく,数多くデータを収集して個人・環境非依存のモデルを作ると,曖昧性が大きく,良い性能が得られないことが知られている.一方,一つの対話セッションの間,対話相手や照明条件が急に変化することは極めて稀である.従って,同一対話内における複数フレームの画像を用いて得られる差分情報は個人性や環境の影響を受けにくいと考えられる.また,人の視線は瞬時的変化と安定を繰り返す傾向にある.本研究ではこの瞬時的変化を捉えて時間を分割し,単一画像・複数画像による情報を,状態遷移モデルを用いて逐次検証することで,対話全体に亘って最も尤もらしい視線方向の列を求めることを試みた.実際の対話データを用いて行った実験で,単一画像を用いた場合に 0.66 であったF 値が,0.89 まで向上した. | |||||||
論文抄録(英) | ||||||||
内容記述タイプ | Other | |||||||
内容記述 | We've tried to improve gaze recognition accuracy by integrating information of image sequenceand utilizing discreteness of gaze movement. Single image of eye region gives information about not only gaze direction but also individuality and environments, such as illumination conditions. Since such information, not essentially related to gaze direction, affects image strongly, the person environment independent gaze model which is trained with a lot of image including such information might not work so well because of its ambiguity. On the other hand, during one dialogue session, the dialogue partner never changes and it is quite rare that the environment changes rapidly. Thus, information given by difference between the frames should not be affected by individuality and environment. Moreover, human tends to repeat instantaneous change and brief fix of gaze direction. In this study, we capture these instantaneous change and confirm the information given by both single image and multiple images using state transition model to obtain the most likely sequence of gaze directions. In the experiment with actual dialogue data, our method achieved 0.89 of F-value while only single image achieved 0.66. | |||||||
書誌レコードID | ||||||||
収録物識別子タイプ | NCID | |||||||
収録物識別子 | AA11131797 | |||||||
書誌情報 |
情報処理学会研究報告コンピュータビジョンとイメージメディア(CVIM) 巻 2007, 号 87(2007-CVIM-160), p. 77-82, 発行日 2007-09-03 |
|||||||
Notice | ||||||||
SIG Technical Reports are nonrefereed and hence may later appear in any journals, conferences, symposia, etc. | ||||||||
出版者 | ||||||||
言語 | ja | |||||||
出版者 | 情報処理学会 |