WEKO3
アイテム
ジェスチャ動作の動画像からのスポッティング認識について
https://ipsj.ixsq.nii.ac.jp/records/18113
https://ipsj.ixsq.nii.ac.jp/records/181131c6d4477-e503-4be3-8063-bfdfed018042
| 名前 / ファイル | ライセンス | アクション |
|---|---|---|
|
|
Copyright (c) 2002 by the Information Processing Society of Japan
|
|
| オープンアクセス | ||
| Item type | Trans(1) | |||||||
|---|---|---|---|---|---|---|---|---|
| 公開日 | 2002-06-15 | |||||||
| タイトル | ||||||||
| タイトル | ジェスチャ動作の動画像からのスポッティング認識について | |||||||
| タイトル | ||||||||
| 言語 | en | |||||||
| タイトル | On Spotting Recognition of Gesture Motion from Time - varying Image | |||||||
| 言語 | ||||||||
| 言語 | jpn | |||||||
| キーワード | ||||||||
| 主題Scheme | Other | |||||||
| 主題 | 総合論文 | |||||||
| 資源タイプ | ||||||||
| 資源タイプ識別子 | http://purl.org/coar/resource_type/c_6501 | |||||||
| 資源タイプ | journal article | |||||||
| 著者所属 | ||||||||
| 新情報処理開発機構/現在,会津大学 | ||||||||
| 著者所属 | ||||||||
| 新情報処理開発機構/現在,産業技術総合研究所 | ||||||||
| 著者所属 | ||||||||
| 新情報処理開発機構/現在,シャープ株式会社 | ||||||||
| 著者所属(英) | ||||||||
| en | ||||||||
| Real World Computing Partnership/Presently with University of Aizu | ||||||||
| 著者所属(英) | ||||||||
| en | ||||||||
| Real World Computing Partnership/Presently with Advanced Industrial Science and Technology | ||||||||
| 著者所属(英) | ||||||||
| en | ||||||||
| Real World Computing Partnership/Presently with Sharp Inc. | ||||||||
| 著者名 |
岡, 隆一
西村, 拓一
矢部, 博明
× 岡, 隆一 西村, 拓一 矢部, 博明
|
|||||||
| 著者名(英) |
Ryuichi, Oka
Takuichi, Nishimura
Hiroaki, Yabe
× Ryuichi, Oka Takuichi, Nishimura Hiroaki, Yabe
|
|||||||
| 論文抄録 | ||||||||
| 内容記述タイプ | Other | |||||||
| 内容記述 | 人間のジェスチャ動作をビデオカメラで動画像としてとらえ,その意味するカテゴリ名をコンピュータで同定する手法を述べる.この手法には複数あるが,それらはジェスチャが行われる様々な状況に応じて個々に用いられる.状況の違いとは,ジェスチャが1 人の人物によってなされているか,複数人でなされているか,戸惑いをともなうジェスチャであるのか,あるいは身体の全体を使う動作であるか,などである.さらに,ジェスチャを行う人物がカメラの正面に向いているかどうかも状況の違いとなる.本稿では,ジェスチャ認識の結果を,他のメディアである音声の認識結果と組み合わせて,CGや音声合成でユーザと対話する実時間システムを構成するためのアーキテクチャについても述べる. | |||||||
| 論文抄録(英) | ||||||||
| 内容記述タイプ | Other | |||||||
| 内容記述 | This paper describes some methods for recognizing human gestures from a time-varying image captured by a single or multiple video cameras.Each method is suitable to recognize human gestures performed in a different situation.The situations include the case of a single person facing a camera and the case of multiple persons captured by an omni-view camera and so on.The paper describes an architecture to realize a real-time dialogue system consisting of speech recognition,task model,CG output and speech synthesis output modules which cooprerate with gesture recognition module. | |||||||
| 書誌レコードID | ||||||||
| 収録物識別子タイプ | NCID | |||||||
| 収録物識別子 | AA11560603 | |||||||
| 書誌情報 |
情報処理学会論文誌コンピュータビジョンとイメージメディア(CVIM) 巻 43, 号 SIG04(CVIM4), p. 54-68, 発行日 2002-06-15 |
|||||||
| ISSN | ||||||||
| 収録物識別子タイプ | ISSN | |||||||
| 収録物識別子 | 1882-7810 | |||||||
| 出版者 | ||||||||
| 言語 | ja | |||||||
| 出版者 | 情報処理学会 | |||||||