WEKO3
アイテム
1 点キャリブレーションによる視線計測とその応用
https://ipsj.ixsq.nii.ac.jp/records/36716
https://ipsj.ixsq.nii.ac.jp/records/367163eaa0bb9-8f0b-41ee-9692-0a4fb5518804
名前 / ファイル | ライセンス | アクション |
---|---|---|
![]() |
Copyright (c) 2006 by the Information Processing Society of Japan
|
|
オープンアクセス |
Item type | SIG Technical Reports(1) | |||||||
---|---|---|---|---|---|---|---|---|
公開日 | 2006-01-13 | |||||||
タイトル | ||||||||
タイトル | 1 点キャリブレーションによる視線計測とその応用 | |||||||
タイトル | ||||||||
言語 | en | |||||||
タイトル | One-Point Personal Calibration and Its Applications | |||||||
言語 | ||||||||
言語 | jpn | |||||||
資源タイプ | ||||||||
資源タイプ識別子 | http://purl.org/coar/resource_type/c_18gh | |||||||
資源タイプ | technical report | |||||||
著者所属 | ||||||||
NTT サイバーソリューション研究所 | ||||||||
著者所属(英) | ||||||||
en | ||||||||
NTT Cyber Solutions Laboratories | ||||||||
著者名 |
大野, 健彦
× 大野, 健彦
|
|||||||
著者名(英) |
Takehiko, Ohno
× Takehiko, Ohno
|
|||||||
論文抄録 | ||||||||
内容記述タイプ | Other | |||||||
内容記述 | 個人キャリブレーションにおいてわずか1 点のみを注視すればよい,新しい視線計測法を提案する.一般に個人キャリブレーションは複雑で面倒な作業として知られており,9 点から20 点のキャリブレーションマーカを順次注視する必要がある.提案手法はわずか1 点を注視すればよいことから,個人キャリブレーションに要する手間が大幅に軽減されている.本手法(OPC 法と呼ぶ) はディスプレイの上部にキャリブレーションマーカを表示し,ユーザがそのマーカを注視している間にユーザの眼球形状と視線算出に用いる眼球形状モデルの差分を算出し,以降の視線計測に用いる.差分の算出にあたっては,オートフォーカスカメラを用いたカメラから眼球までの距離,ならびにカメラ近辺に配置された2 組の近赤外線LED を用いている.予備評価実験の結果,本手法を用いることでおおまかなユーザの視線が算出可能であることが示された. | |||||||
論文抄録(英) | ||||||||
内容記述タイプ | Other | |||||||
内容記述 | A novel gaze tracking method which requires only one calibration marker for the personal calibration is proposed. In general, personal calibration is known as the troublesome task, which requires the user looks at nine to twenty calibration markers successively. Different from traditional methods, the proposed method drastically reduce the cost of personal calibration. This method, which is called the One-Point Calibration method (OPC method), displays a calibration marker on the top of the screen. While the user looks at the marker, the difference between the user’s eyeball shape and the eyeball model used in calculating the user’s gaze direction is estimated. Then, the difference between the user’s gaze direction and the estimated gaze direction by the eyeball model is compensated. To estimate the difference between the user’s eyeball shape and the eyeball model, we use the distance between the camera and the eyeball derived from the auto-focus camera, and two infrared lights arranged near the video camera. The preliminary user study confirmed that it is possible to detect the user’s rough eye gaze with the proposed method. | |||||||
書誌レコードID | ||||||||
収録物識別子タイプ | NCID | |||||||
収録物識別子 | AA1221543X | |||||||
書誌情報 |
情報処理学会研究報告ヒューマンコンピュータインタラクション(HCI) 巻 2006, 号 3(2006-HI-117), p. 67-74, 発行日 2006-01-13 |
|||||||
Notice | ||||||||
SIG Technical Reports are nonrefereed and hence may later appear in any journals, conferences, symposia, etc. | ||||||||
出版者 | ||||||||
言語 | ja | |||||||
出版者 | 情報処理学会 |