@techreport{oai:ipsj.ixsq.nii.ac.jp:00051988, author = {山畠, 利彦 and 藤江, 真也 and 小林, 哲則 and Toshihiko, YAMAHATA and Shinya, FUJIE and Tetsunori, KOBAYASHI}, issue = {87(2007-CVIM-160)}, month = {Sep}, note = {視線認識を目の部分画像を用いて行う際に,視線運動の離散性を利用して,複数フレームから得られる情報を統合することを試みる.単一の画像から得られる情報は,視線方向以外にも個人性や照明条件等の環境に関する情報を多く含んでいる.個人性や環境の画像に与える影響は大きく,数多くデータを収集して個人・環境非依存のモデルを作ると,曖昧性が大きく,良い性能が得られないことが知られている.一方,一つの対話セッションの間,対話相手や照明条件が急に変化することは極めて稀である.従って,同一対話内における複数フレームの画像を用いて得られる差分情報は個人性や環境の影響を受けにくいと考えられる.また,人の視線は瞬時的変化と安定を繰り返す傾向にある.本研究ではこの瞬時的変化を捉えて時間を分割し,単一画像・複数画像による情報を,状態遷移モデルを用いて逐次検証することで,対話全体に亘って最も尤もらしい視線方向の列を求めることを試みた.実際の対話データを用いて行った実験で,単一画像を用いた場合に 0.66 であったF 値が,0.89 まで向上した., We've tried to improve gaze recognition accuracy by integrating information of image sequenceand utilizing discreteness of gaze movement. Single image of eye region gives information about not only gaze direction but also individuality and environments, such as illumination conditions. Since such information, not essentially related to gaze direction, affects image strongly, the person environment independent gaze model which is trained with a lot of image including such information might not work so well because of its ambiguity. On the other hand, during one dialogue session, the dialogue partner never changes and it is quite rare that the environment changes rapidly. Thus, information given by difference between the frames should not be affected by individuality and environment. Moreover, human tends to repeat instantaneous change and brief fix of gaze direction. In this study, we capture these instantaneous change and confirm the information given by both single image and multiple images using state transition model to obtain the most likely sequence of gaze directions. In the experiment with actual dialogue data, our method achieved 0.89 of F-value while only single image achieved 0.66.}, title = {視線運動の離散性を用いた視線認識}, year = {2007} }