Item type |
Journal(1) |
公開日 |
2021-02-15 |
タイトル |
|
|
タイトル |
掌上装着魚眼カメラを用いたフリーハンドARのための手指姿勢推定 |
タイトル |
|
|
言語 |
en |
|
タイトル |
Finger Posture Estimation by Attaching an Omnidirectional Camera to the Center of the User's Palm |
言語 |
|
|
言語 |
jpn |
キーワード |
|
|
主題Scheme |
Other |
|
主題 |
[特集:インタラクションの理解および基盤・応用技術] 手指姿勢推定,モーションキャプチャ,魚眼カメラ,拡張現実感 |
資源タイプ |
|
|
資源タイプ識別子 |
http://purl.org/coar/resource_type/c_6501 |
|
資源タイプ |
journal article |
ID登録 |
|
|
ID登録 |
10.20729/00209336 |
|
ID登録タイプ |
JaLC |
著者所属 |
|
|
|
関西学院大学/現在,三菱電機株式会社 |
著者所属 |
|
|
|
関西学院大学 |
著者所属(英) |
|
|
|
en |
|
|
Kwansei Gakuin University / Presently with Mitsubishi Electric Corporation |
著者所属(英) |
|
|
|
en |
|
|
Kwansei Gakuin University |
著者名 |
丸山, 裕介
河野, 恭之
|
著者名(英) |
Yusuke, Maruyama
Yasuyuki, Kono
|
論文抄録 |
|
|
内容記述タイプ |
Other |
|
内容記述 |
本研究では,ユーザの掌に魚眼カメラを装着しその手の指先を検出することで逆運動学的に手指の自然な姿勢を推定する.手指を屈曲させる際,手指の各関節を任意に動作させることは困難でありそれぞれの関節が従属的に動作すると考えると,ある関節の屈曲角が定まれば他の関節に関しても屈曲角が一意に定まる.そのため魚眼カメラに対する指先の位置さえ決まれば各関節の屈曲角を逆運動学的に推定できる.本研究ではこの関節間の特性を依存関係と呼び,魚眼カメラを用いて検出した指先位置と関節間の依存関係を利用することで手指姿勢を逆運動学的に推定する.本手法がユーザに与える制約は指先を検出するための魚眼カメラの装着のみであり,ユーザの位置や手の可動範囲を制限しない.そのため本システムを利用することで直感的な操作ができ,かつ没入感のあるハンズフリーなAR・VRシステムを実装できると考えられる.先行研究で提案された依存関係を本手法に適用して手指姿勢を推定し,同時に光学式モーションキャプチャを用いて各関節の屈曲角を計測して誤差を算出した.実験の結果から,母指のみ依存関係を新たに導出したところ,より整合性の高いことが確認された. |
論文抄録(英) |
|
|
内容記述タイプ |
Other |
|
内容記述 |
This research describes the development of a system that estimates the natural finger postures of a user's fingers from the images captured by a fisheye camera attached to the center of the user's palm. We consider that the flexion of finger joints has a dependency because each finger joint is not easy to bend individually. Our method can estimate finger postures easily by applying inverse kinematics with the interdependencies. The finger postures can be estimated by detecting the fingertips on each image and referring to the following preset information: the positional relationship between the camera and the user's fingers/fingertips, the length between the finger joints, and interdependencies between the finger joints. Our system only requires that a fisheye camera be attached to the center of the user's palm to detect fingertips for estimating finger postures. This implementation can help to develop immersive AR/VR system because of the user's freehand. We applied the interdependency proposed in the previous research to our method to estimate the finger postures, and simultaneously measured the flexion angle of each finger joint using optical motion capture to calculate the error. We experimented with a new dependency relation derived only for the thumb and confirmed that a more consistent interdependency could be derived. |
書誌レコードID |
|
|
収録物識別子タイプ |
NCID |
|
収録物識別子 |
AN00116647 |
書誌情報 |
情報処理学会論文誌
巻 62,
号 2,
p. 631-640,
発行日 2021-02-15
|
ISSN |
|
|
収録物識別子タイプ |
ISSN |
|
収録物識別子 |
1882-7764 |