WEKO3
-
RootNode
アイテム
3次元仮想空間とのインタラクションに適したジェスチャインタフェース・ツールの開発
https://ipsj.ixsq.nii.ac.jp/records/81254
https://ipsj.ixsq.nii.ac.jp/records/812548460c8ac-7e68-4eed-99a2-77c6eb8bd54d
名前 / ファイル | ライセンス | アクション |
---|---|---|
![]() |
Copyright (c) 2012 by the Information Processing Society of Japan
|
|
オープンアクセス |
Item type | SIG Technical Reports(1) | |||||||
---|---|---|---|---|---|---|---|---|
公開日 | 2012-03-14 | |||||||
タイトル | ||||||||
タイトル | 3次元仮想空間とのインタラクションに適したジェスチャインタフェース・ツールの開発 | |||||||
タイトル | ||||||||
言語 | en | |||||||
タイトル | Development of a Gestural Interface Tool for Interaction with 3D Virtual Space | |||||||
言語 | ||||||||
言語 | jpn | |||||||
資源タイプ | ||||||||
資源タイプ識別子 | http://purl.org/coar/resource_type/c_18gh | |||||||
資源タイプ | technical report | |||||||
著者所属 | ||||||||
立命館大学 | ||||||||
著者所属 | ||||||||
立命館大学 | ||||||||
著者所属 | ||||||||
立命館大学 | ||||||||
著者所属 | ||||||||
立命館大学 | ||||||||
著者所属 | ||||||||
立命館大学 | ||||||||
著者所属(英) | ||||||||
en | ||||||||
Ritsumeikan Unuversity | ||||||||
著者所属(英) | ||||||||
en | ||||||||
Ritsumeikan Unuversity | ||||||||
著者所属(英) | ||||||||
en | ||||||||
Ritsumeikan Unuversity | ||||||||
著者所属(英) | ||||||||
en | ||||||||
Ritsumeikan Unuversity | ||||||||
著者所属(英) | ||||||||
en | ||||||||
Ritsumeikan Unuversity | ||||||||
著者名 |
村田, 龍吾
冨田, 勝義
LeVanNghia
木村, 朝子
大島, 登志一
× 村田, 龍吾 冨田, 勝義 LeVanNghia 木村, 朝子 大島, 登志一
|
|||||||
著者名(英) |
Ryugo, Murata
Katsuyoshi, Tomita
Le, VanNghia
Asako, Kimura
Toshikazu, Ohshima
× Ryugo, Murata Katsuyoshi, Tomita Le, VanNghia Asako, Kimura Toshikazu, Ohshima
|
|||||||
論文抄録 | ||||||||
内容記述タイプ | Other | |||||||
内容記述 | 本研究では,ユーザを取り囲む仮想空間との 3 次元的なインタラクションにおいて,複数の身体部位の位置や姿勢の状態によってユーザの全身動作をジェスチャインタフェースとして利用する.そこで,アプリケーション・システムにジェスチャインタフェースの機能を容易に組み込むことを目的として、ジェスチャの設計支援や登録機能を備えたソフトウェアツールを開発する.本稿ではジェスチャ認識手法とツールの機能について述べる. | |||||||
論文抄録(英) | ||||||||
内容記述タイプ | Other | |||||||
内容記述 | This paper focuses on a gestural user interface which uses full-body motion interacting with 3d virtual space surrounding a user. We assume to use positions and orientations of multiple points on a user's body than just a few acceleration data, for deciding the gestures. For that purpose, we are developing a software tool for aiding implementation of this kind of gesture interface into VR/MR application systems. Essential functions of the tool include assisting for gesture design, capturing and analysing motion data, recognising gestures, and interactive testing. The gesture recognition approach and the functions of the tool are described in this paper. | |||||||
書誌レコードID | ||||||||
収録物識別子タイプ | NCID | |||||||
収録物識別子 | AA1221543X | |||||||
書誌情報 |
研究報告ヒューマンコンピュータインタラクション(HCI) 巻 2012-HCI-147, 号 26, p. 1-8, 発行日 2012-03-14 |
|||||||
Notice | ||||||||
SIG Technical Reports are nonrefereed and hence may later appear in any journals, conferences, symposia, etc. | ||||||||
出版者 | ||||||||
言語 | ja | |||||||
出版者 | 情報処理学会 |