@techreport{oai:ipsj.ixsq.nii.ac.jp:00057457, author = {門谷信愛希 and 阿曽, 弘具 and 鈴木, 基之 and 牧野, 正三 and Nobuaki, Kadotani and Hirotomo, Aso and Motoyuki, Suzuki and Shozo, Makino}, issue = {119(2000-SLP-034)}, month = {Dec}, note = {本論文は,音声に含まれる感情の判別を目的としている.最初に感情(怒り,悲しみ,喜び)を含んだ音声が連続音声認識システムに与える影響を13名の話者によって発話された1040文章を用いて調査した.その結果,これらの感情は平均で10?20%,最大で50%程度の認識率の低下をもたらすことが分かった.次に,感情の判別にはどのようなパラメータが有効であるかを調べた.正準判別分析の結果,文中の最大基本周波数,最大振幅,基本周波数の変動範囲などの特徴量が有効であることが分かった.全話者の混合データに対する判別分析では,怒り(61.4%),悲しみ(53.1%),喜び(45.8%)の順で判別率が低下することが分かった.一方で,各パラメータの判別に対する寄与度は話者によって異なっていることが分かった., This paper describes the discrimination among emotion expressions contained in speech. At first, we investigated an influence of these emotion expressions (anger, pleasure and sadness) on performance of continuous speech recognition system using 1040 sentences uttered by 13 speakers. We found that those three emotions gave 10% to 20% down on the performance. Next, we investigated effective parameters for discrimination among emotions. Based on canonical discriminant analysis, the following parameter are effective for all speakers: maximum fundamental frequency, maximum power and variation range of fundamental frequency. Discriminant rates for all speakers decrease in order of anger(61.4%), pleasure(53.1%) and sadness(45.8%). On the other hand, we also found that contribution rate of these parameters is different dependent on speaker characteristics.}, title = {音声に含まれる感情の判別に関する検討}, year = {2000} }