WEKO3
アイテム
AirTarget:光学シースルー方式HMDとマーカレス画像認識による高可搬性実世界志向インタフェース
https://ipsj.ixsq.nii.ac.jp/records/100855
https://ipsj.ixsq.nii.ac.jp/records/1008557a788f57-12b5-46a5-8203-0d6fc0c1beb5
名前 / ファイル | ライセンス | アクション |
---|---|---|
![]() |
Copyright (c) 2014 by the Information Processing Society of Japan
|
|
オープンアクセス |
Item type | Journal(1) | |||||||
---|---|---|---|---|---|---|---|---|
公開日 | 2014-04-15 | |||||||
タイトル | ||||||||
タイトル | AirTarget:光学シースルー方式HMDとマーカレス画像認識による高可搬性実世界志向インタフェース | |||||||
タイトル | ||||||||
言語 | en | |||||||
タイトル | AirTarget: A Highly-portable Markerless User Interface Using Optical See-through HMD | |||||||
言語 | ||||||||
言語 | jpn | |||||||
キーワード | ||||||||
主題Scheme | Other | |||||||
主題 | [一般論文(推薦論文)] ユーザインタフェース,ヘッドマウントディスプレイ,拡張現実感,指認識,ウェアラブルコンピューティング | |||||||
資源タイプ | ||||||||
資源タイプ識別子 | http://purl.org/coar/resource_type/c_6501 | |||||||
資源タイプ | journal article | |||||||
著者所属 | ||||||||
電気通信大学情報システム学研究科 | ||||||||
著者所属 | ||||||||
電気通信大学電気通信学部 | ||||||||
著者所属 | ||||||||
電気通信大学情報システム学研究科 | ||||||||
著者所属 | ||||||||
電気通信大学情報システム学研究科 | ||||||||
著者所属 | ||||||||
電気通信大学情報システム学研究科/現在,株式会社DeNA | ||||||||
著者所属 | ||||||||
電気通信大学情報システム学研究科 | ||||||||
著者所属 | ||||||||
電気通信大学情報システム学研究科/現在,日産車体株式会社 | ||||||||
著者所属 | ||||||||
電気通信大学情報システム学研究科/現在,ACCESSPORT株式会社 | ||||||||
著者所属 | ||||||||
電気通信大学情報システム学研究科 | ||||||||
著者所属 | ||||||||
電気通信大学情報システム学研究科 | ||||||||
著者所属(英) | ||||||||
en | ||||||||
Graduate School of Information Systems, The University of Electro-Communications | ||||||||
著者所属(英) | ||||||||
en | ||||||||
Department of Communication Engineering and Imformatics, The University of Electro-Communications | ||||||||
著者所属(英) | ||||||||
en | ||||||||
Graduate School of Information Systems, The University of Electro-Communications | ||||||||
著者所属(英) | ||||||||
en | ||||||||
Graduate School of Information Systems, The University of Electro-Communications | ||||||||
著者所属(英) | ||||||||
en | ||||||||
Graduate School of Information Systems, The University of Electro-Communications / Presently with DeNA Co., Ltd. | ||||||||
著者所属(英) | ||||||||
en | ||||||||
Graduate School of Information Systems, The University of Electro-Communications | ||||||||
著者所属(英) | ||||||||
en | ||||||||
Graduate School of Information Systems, The University of Electro-Communications / Presently with Nissan Shatai | ||||||||
著者所属(英) | ||||||||
en | ||||||||
Graduate School of Information Systems, The University of Electro-Communications / Presently with ACCESSPORT | ||||||||
著者所属(英) | ||||||||
en | ||||||||
Graduate School of Information Systems, The University of Electro-Communications | ||||||||
著者所属(英) | ||||||||
en | ||||||||
Graduate School of Information Systems, The University of Electro-Communications | ||||||||
著者名 |
入江, 英嗣
森田, 光貴
岩崎, 央
千竃, 航平
放地, 宏佳
小木, 真人
樫原, 裕大
芝, 星帆
眞島, 一貴
吉永, 努
× 入江, 英嗣 森田, 光貴 岩崎, 央 千竃, 航平 放地, 宏佳 小木, 真人 樫原, 裕大 芝, 星帆 眞島, 一貴 吉永, 努
|
|||||||
著者名(英) |
Hidetsugu, Irie
Mitsutaka, Morita
Hiroshi, Iwasaki
Kohei, Chikama
Hiroyoshi, Houchi
Masato, Kogi
Hirotaka, Kashihara
Seiho, Shiba
Kazuki, Majima
Tsutomu, Yoshinaga
× Hidetsugu, Irie Mitsutaka, Morita Hiroshi, Iwasaki Kohei, Chikama Hiroyoshi, Houchi Masato, Kogi Hirotaka, Kashihara Seiho, Shiba Kazuki, Majima Tsutomu, Yoshinaga
|
|||||||
論文抄録 | ||||||||
内容記述タイプ | Other | |||||||
内容記述 | 本論文では,光学シースルー方式HMD向けのユーザインタフェースとして,仮想オブジェクトや現実オブジェクトを指で直接指定することのできる“AirTarget”システムを提案する.AirTargetはHMDに取り付けたカメラからユーザの指の位置を検出し,カメラと視線のずれを補正する新規アルゴリズムにより,指先にカーソルを重畳表示する.軽量なアルゴリズムにより指先はマーカレスで検出され,特定の入力デバイスや外部計算機を必要としない.簡単なジェスチャによってコンピュータにコマンドを送ることができ,プログラムの入力インタフェースとして機能する.ユーザは仮想平面上のデスクトップを指差して操作することや,視界に入った現実オブジェクトを指で切り出して画像検索のクエリとすることができる.このような可搬性と操作感から,外出先を含む日常生活のあらゆるシーンにコンピューティングを浸透させるインタフェースとして有効である.Android端末として機能するHMD上に提案システムを実装し,システムのリアルタイム性,検出精度,操作感の評価を行った.提案システムは18フレーム以上のリアルタイム動作を実現し,また,クリックジェスチャ操作を高い認識率および精度で実現した. | |||||||
論文抄録(英) | ||||||||
内容記述タイプ | Other | |||||||
内容記述 | In this paper, a system “AirTarget”, which can point virtual and real object directly with user's finger is proposed for optic see-through HMD devices. The camera attached to the HMD device detects the position of user's fingertip, calibrates the gap between the sight of the camera and eye, and displays the cursor overlapped to the finger on the virtual plain. Finger detection is done in markerless image processing, so that it does not require specific input devices or external computer. This system enables to send control commands by simple gesture, working as a self-contained interface. The user is able to point a virtual object with their finger, and able to cut out an object of the real sight which can be used as a query of the image searching. Such portability and operability enforces AirTarget as an effective interface to be attached to every scene of daily life including outdoors. We implemented the proposal system on the HMD as an Android device and evaluated its real-time properties, detection accuracy, and operability. The algorithm achieved more than 18fps which is sufficient to real time operation. Also, the quick gesture operation was achieved in high accuracy and recognition rate. | |||||||
書誌レコードID | ||||||||
収録物識別子タイプ | NCID | |||||||
収録物識別子 | AN00116647 | |||||||
書誌情報 |
情報処理学会論文誌 巻 55, 号 4, p. 1415-1427, 発行日 2014-04-15 |
|||||||
ISSN | ||||||||
収録物識別子タイプ | ISSN | |||||||
収録物識別子 | 1882-7764 |