WEKO3
アイテム
複数ユーザによる音声とジェスチャのマルチモーダルインタフェースシステム:Real - time GSIの一評価実験
https://ipsj.ixsq.nii.ac.jp/records/37341
https://ipsj.ixsq.nii.ac.jp/records/373413afc412c-fd63-42a0-91cd-dd16a437640b
名前 / ファイル | ライセンス | アクション |
---|---|---|
![]() |
Copyright (c) 1996 by the Information Processing Society of Japan
|
Item type | SIG Technical Reports(1) | |||||||
---|---|---|---|---|---|---|---|---|
公開日 | 1996-02-29 | |||||||
タイトル | ||||||||
タイトル | 複数ユーザによる音声とジェスチャのマルチモーダルインタフェースシステム:Real - time GSIの一評価実験 | |||||||
タイトル | ||||||||
言語 | en | |||||||
タイトル | An Evaluation Experiment of Real - time GSI : Multi - modal Interface System for Gesture and Speech by Multiple Users | |||||||
言語 | ||||||||
言語 | jpn | |||||||
資源タイプ | ||||||||
資源タイプ識別子 | http://purl.org/coar/resource_type/c_18gh | |||||||
資源タイプ | technical report | |||||||
著者所属 | ||||||||
新情報処理開発機構つくば研究センタ/(現)川崎製鉄(株)情報システム部 | ||||||||
著者所属 | ||||||||
新情報処理開発機構つくば研究センタ | ||||||||
著者所属 | ||||||||
新情報処理開発機構つくば研究センタ | ||||||||
著者所属 | ||||||||
新情報処理開発機構つくば研究センタ/(現)シャープ(株)応用システム研究所 | ||||||||
著者所属 | ||||||||
メディアドライブ株式会社 | ||||||||
著者所属 | ||||||||
新情報処理開発機構つくば研究センタ | ||||||||
著者所属(英) | ||||||||
en | ||||||||
TRC RWCP/Now, Informations System Dept., Kawasaki Steel Corporation | ||||||||
著者所属(英) | ||||||||
en | ||||||||
TRC RWCP | ||||||||
著者所属(英) | ||||||||
en | ||||||||
TRC RWCP | ||||||||
著者所属(英) | ||||||||
en | ||||||||
TRC RWCP/Now, Sharp Corporation | ||||||||
著者所属(英) | ||||||||
en | ||||||||
Media Drive Corporation | ||||||||
著者所属(英) | ||||||||
en | ||||||||
TRC RWCP | ||||||||
著者名 |
伊藤, 慶明
× 伊藤, 慶明
|
|||||||
著者名(英) |
Yoshiaki, Itoh
× Yoshiaki, Itoh
|
|||||||
論文抄録 | ||||||||
内容記述タイプ | Other | |||||||
内容記述 | 我々は,マルチモーダルインタフェースシステムReal?time GSI (esture and Speech Interfac)を既に開発している.本システムは,音声と動画像理解の統合,数人の自然な発話の同時認識/理解,及びリアルタイムの視覚的漸次的フィードバックを,人間同士の会話進行とともに実現した点に特徴がある.本稿では,まずマルチモーダルインタフェース・システムの評価方法について検討する.次に,本システムの利用可能性について評価するため,Wizard of OZ法を用いた簡単な心理実験を行った.その実験方法と,評価結果についての報告を行う. | |||||||
論文抄録(英) | ||||||||
内容記述タイプ | Other | |||||||
内容記述 | We have proposed a new type of multi-modal interface system, which allows input of speech and gesture by multiple users. This system has features such as integration for understanding for speech and gesture, simultaneous recognition of conversational speech by multiple speakers and real-time and gradual visual feedback of system understanding state. In the paper, we first study how to evaluate a multi-modal interface. Next, we report some results of our psychological experiment, using Wizard of OZ method to evaluate the feasibility of the system. | |||||||
書誌レコードID | ||||||||
収録物識別子タイプ | NCID | |||||||
収録物識別子 | AA1221543X | |||||||
書誌情報 |
情報処理学会研究報告ヒューマンコンピュータインタラクション(HCI) 巻 1996, 号 21(1995-HI-065), p. 3-8, 発行日 1996-02-29 |
|||||||
Notice | ||||||||
SIG Technical Reports are nonrefereed and hence may later appear in any journals, conferences, symposia, etc. | ||||||||
出版者 | ||||||||
言語 | ja | |||||||
出版者 | 情報処理学会 |