WEKO3
アイテム
パラ言語の理解能力を有する対話ロボット
https://ipsj.ixsq.nii.ac.jp/records/57210
https://ipsj.ixsq.nii.ac.jp/records/5721035314b07-e3bc-43ac-a622-9d660bf147d9
名前 / ファイル | ライセンス | アクション |
---|---|---|
![]() |
Copyright (c) 2003 by the Information Processing Society of Japan
|
|
オープンアクセス |
Item type | SIG Technical Reports(1) | |||||||
---|---|---|---|---|---|---|---|---|
公開日 | 2003-10-17 | |||||||
タイトル | ||||||||
タイトル | パラ言語の理解能力を有する対話ロボット | |||||||
タイトル | ||||||||
言語 | en | |||||||
タイトル | Dialogue Robot with an Ability to Understand Para - Linguistic Information | |||||||
言語 | ||||||||
言語 | jpn | |||||||
資源タイプ | ||||||||
資源タイプ識別子 | http://purl.org/coar/resource_type/c_18gh | |||||||
資源タイプ | technical report | |||||||
著者所属 | ||||||||
早稲田大学理工学部 | ||||||||
著者所属 | ||||||||
早稲田大学理工学部 | ||||||||
著者所属 | ||||||||
早稲田大学理工学部 | ||||||||
著者所属 | ||||||||
早稲田大学理工学部 | ||||||||
著者所属(英) | ||||||||
en | ||||||||
School of Science and Engineering, Waseda University | ||||||||
著者所属(英) | ||||||||
en | ||||||||
School of Science and Engineering, Waseda University | ||||||||
著者所属(英) | ||||||||
en | ||||||||
School of Human Science, Waseda University | ||||||||
著者所属(英) | ||||||||
en | ||||||||
School of Science and Engineering, Waseda University | ||||||||
著者名 |
藤江, 真也
× 藤江, 真也
|
|||||||
著者名(英) |
Shinya, Fujie
× Shinya, Fujie
|
|||||||
論文抄録 | ||||||||
内容記述タイプ | Other | |||||||
内容記述 | 音声対話における人間同士のやり取りは,発話に含まれる言語情報だけでなく,それを補助する別の情報も活用して行なわれていると考えられる.この発話に付随して生成され言語情報の円滑な伝達を補助する情報をパラ言語情報と呼ぶ.本論文では,パラ言語情報として,韻律情報を用いた態度認識と画像情報を用いた頭部ジェスチャの認識手法を示すとともに,それを用いた対話システムを構築する.前者は,発話者の態度が肯定的か否定的かを,F0パターンと音素アライメントを用いて識別する.後者は頷き,傾げ,横振りの3ジェスチャを,オプティカルフローを特徴量,left to right HMMを確率モデルとして用いることによって認識する.実験結果からこれらの手法が,パラ言語情報としてユーザの態度を表すのに十分な性能を持っていることを示す. | |||||||
論文抄録(英) | ||||||||
内容記述タイプ | Other | |||||||
内容記述 | The human-human interactions in a spoken seem to use not only linguistic information in the utterances but also some sorts of additional information supporting linguistic information. We call these sorts of additional information "para-linguistic information". In this paper, we present a recognition method of attitudes by prosodic information, and a recognition method of head gestures. In the former method. in order to recognize two attitudes, such as "positive" and "negative", F0 pattern and phoneme alignment are introduced as features. In the latter method, in order to recognize three gestures, such as "nod", "tilt" and "shake", left-to-right HMM is introduced as the probabilistic model as well as optical flow is introduced as features. Experimental results show that these methods are sufficient to recognize user's attitude as para-linguistic information. Finally, we show a proto-type spoken dialogue system using para-linguistic information and how these sorts of information contribute the efficient conversation. | |||||||
書誌レコードID | ||||||||
収録物識別子タイプ | NCID | |||||||
収録物識別子 | AN10442647 | |||||||
書誌情報 |
情報処理学会研究報告音声言語情報処理(SLP) 巻 2003, 号 104(2003-SLP-048), p. 13-20, 発行日 2003-10-17 |
|||||||
Notice | ||||||||
SIG Technical Reports are nonrefereed and hence may later appear in any journals, conferences, symposia, etc. | ||||||||
出版者 | ||||||||
言語 | ja | |||||||
出版者 | 情報処理学会 |