Item type |
SIG Technical Reports(1) |
公開日 |
2016-12-13 |
タイトル |
|
|
タイトル |
感情的独話・対話を用いた日本語マルチモーダルコーパスの構築 |
タイトル |
|
|
言語 |
en |
|
タイトル |
Constructing a Japanese Multimodal Corpus Prom Emotional Monologues and Dialogues |
言語 |
|
|
言語 |
eng |
キーワード |
|
|
主題Scheme |
Other |
|
主題 |
対話,パラ言語,感情 |
資源タイプ |
|
|
資源タイプ識別子 |
http://purl.org/coar/resource_type/c_18gh |
|
資源タイプ |
technical report |
著者所属 |
|
|
|
奈良先端科学技術大学院大学 |
著者所属 |
|
|
|
ホンダ・リサーチ・インスティチュート・ジャパン |
著者所属 |
|
|
|
奈良先端科学技術大学院大学 |
著者所属 |
|
|
|
ホンダ・リサーチ・インスティチュート・ジャパン |
著者所属 |
|
|
|
奈良先端科学技術大学院大学 |
著者所属 |
|
|
|
奈良先端科学技術大学院大学 |
著者所属 |
|
|
|
ホンダ・リサーチ・インスティチュート・ジャパン |
著者所属(英) |
|
|
|
en |
|
|
Nara Institute of Science and Technology |
著者所属(英) |
|
|
|
en |
|
|
Honda Research Institute Japan Co., Ltd. |
著者所属(英) |
|
|
|
en |
|
|
Nara Institute of Science and Technology |
著者所属(英) |
|
|
|
en |
|
|
Honda Research Institute Japan Co., Ltd. |
著者所属(英) |
|
|
|
en |
|
|
Nara Institute of Science and Technology |
著者所属(英) |
|
|
|
en |
|
|
Nara Institute of Science and Technology |
著者所属(英) |
|
|
|
en |
|
|
Honda Research Institute Japan Co., Ltd. |
著者名 |
ヌルル, ルーピス
ランデイ, ゴメス
サクリアニ, サクティ
中村, 圭佑
吉野, 幸一郎
中村, 哲
中臺, 一博
|
著者名(英) |
Nurul, Lubis
Randy, Gomez
Sakriani, Sakti
Keisuke, Nakamura
Koichiro, Yoshino
Satoshi, Nakamura
Kazuhiro, Nakadai
|
論文抄録 |
|
|
内容記述タイプ |
Other |
|
内容記述 |
ヒューマンコンピュータインタラクションにおいて感情を用いるため,様々な種類のモダリテイにおけるラベルを付与したデータが必要となる.しかし日本語における感情コーパスでは,多くのコーパスが 1 種類または 2 種類のモダリテイに限られている.そこで本研究では,感情の生起を様々な側面から観測するため,音声および映像からなる日本語感情コーパスを作成した.本コーパスは 14 人の日本語母語話者を対象に収録した.また,収録したコーパスに対して音声のモダリテイを用いた感情認識タスクを行い,5 感情の分類において 61.42% の精度を実現した. |
論文抄録(英) |
|
|
内容記述タイプ |
Other |
|
内容記述 |
To fully incorporate emotion into human-computer interaction, rich sets of labeled emotional data is prerequisite. However, in Japanese, the majority of the existing emotion database is still limited to unimodal and bimodal corpora. To allow more complete observation of emotion occurrences, we construct the first audio-visual emotion corpora in Japanese, collected from 14 native speakers. Preliminary speech emotion recognition experiments on the corpus and achieved an accuracy of 61.42% for five classes of emotion. |
書誌レコードID |
|
|
収録物識別子タイプ |
NCID |
|
収録物識別子 |
AN10442647 |
書誌情報 |
研究報告音声言語情報処理(SLP)
巻 2016-SLP-114,
号 3,
p. 1-2,
発行日 2016-12-13
|
ISSN |
|
|
収録物識別子タイプ |
ISSN |
|
収録物識別子 |
2188-8663 |
Notice |
|
|
|
SIG Technical Reports are nonrefereed and hence may later appear in any journals, conferences, symposia, etc. |
出版者 |
|
|
言語 |
ja |
|
出版者 |
情報処理学会 |