WEKO3
アイテム
音声に含まれる感情の判別に関する検討
https://ipsj.ixsq.nii.ac.jp/records/57457
https://ipsj.ixsq.nii.ac.jp/records/57457c699d4e6-31b8-46d4-8640-9aabaa6daafa
名前 / ファイル | ライセンス | アクション |
---|---|---|
![]() |
Copyright (c) 2000 by the Information Processing Society of Japan
|
|
オープンアクセス |
Item type | SIG Technical Reports(1) | |||||||
---|---|---|---|---|---|---|---|---|
公開日 | 2000-12-21 | |||||||
タイトル | ||||||||
タイトル | 音声に含まれる感情の判別に関する検討 | |||||||
タイトル | ||||||||
言語 | en | |||||||
タイトル | An investigation on discrimination among emotion expressions contained in speech | |||||||
言語 | ||||||||
言語 | jpn | |||||||
資源タイプ | ||||||||
資源タイプ識別子 | http://purl.org/coar/resource_type/c_18gh | |||||||
資源タイプ | technical report | |||||||
著者所属 | ||||||||
東北大学大学院工学研究科 | ||||||||
著者所属 | ||||||||
東北大学大学院工学研究科 | ||||||||
著者所属 | ||||||||
東北大学大型計算機センター | ||||||||
著者所属 | ||||||||
東北大学大型計算機センター | ||||||||
著者所属(英) | ||||||||
en | ||||||||
Graduate School of Engineering, Tohoku University | ||||||||
著者所属(英) | ||||||||
en | ||||||||
Graduate School of Engineering, Tohoku University | ||||||||
著者所属(英) | ||||||||
en | ||||||||
Computer Center, Tohoku University | ||||||||
著者所属(英) | ||||||||
en | ||||||||
Computer Center, Tohoku University | ||||||||
著者名 |
門谷信愛希
阿曽, 弘具
鈴木, 基之
牧野, 正三
× 門谷信愛希 阿曽, 弘具 鈴木, 基之 牧野, 正三
|
|||||||
著者名(英) |
Nobuaki, Kadotani
Hirotomo, Aso
Motoyuki, Suzuki
Shozo, Makino
× Nobuaki, Kadotani Hirotomo, Aso Motoyuki, Suzuki Shozo, Makino
|
|||||||
論文抄録 | ||||||||
内容記述タイプ | Other | |||||||
内容記述 | 本論文は,音声に含まれる感情の判別を目的としている.最初に感情(怒り,悲しみ,喜び)を含んだ音声が連続音声認識システムに与える影響を13名の話者によって発話された1040文章を用いて調査した.その結果,これらの感情は平均で10?20%,最大で50%程度の認識率の低下をもたらすことが分かった.次に,感情の判別にはどのようなパラメータが有効であるかを調べた.正準判別分析の結果,文中の最大基本周波数,最大振幅,基本周波数の変動範囲などの特徴量が有効であることが分かった.全話者の混合データに対する判別分析では,怒り(61.4%),悲しみ(53.1%),喜び(45.8%)の順で判別率が低下することが分かった.一方で,各パラメータの判別に対する寄与度は話者によって異なっていることが分かった. | |||||||
論文抄録(英) | ||||||||
内容記述タイプ | Other | |||||||
内容記述 | This paper describes the discrimination among emotion expressions contained in speech. At first, we investigated an influence of these emotion expressions (anger, pleasure and sadness) on performance of continuous speech recognition system using 1040 sentences uttered by 13 speakers. We found that those three emotions gave 10% to 20% down on the performance. Next, we investigated effective parameters for discrimination among emotions. Based on canonical discriminant analysis, the following parameter are effective for all speakers: maximum fundamental frequency, maximum power and variation range of fundamental frequency. Discriminant rates for all speakers decrease in order of anger(61.4%), pleasure(53.1%) and sadness(45.8%). On the other hand, we also found that contribution rate of these parameters is different dependent on speaker characteristics. | |||||||
書誌レコードID | ||||||||
収録物識別子タイプ | NCID | |||||||
収録物識別子 | AN10442647 | |||||||
書誌情報 |
情報処理学会研究報告音声言語情報処理(SLP) 巻 2000, 号 119(2000-SLP-034), p. 37-42, 発行日 2000-12-21 |
|||||||
Notice | ||||||||
SIG Technical Reports are nonrefereed and hence may later appear in any journals, conferences, symposia, etc. | ||||||||
出版者 | ||||||||
言語 | ja | |||||||
出版者 | 情報処理学会 |