Item type |
SIG Technical Reports(1) |
公開日 |
2023-06-16 |
タイトル |
|
|
タイトル |
発話音声の感情情報に基づく色つき字幕画像生成の検討 |
タイトル |
|
|
言語 |
en |
|
タイトル |
Generation of colored subtitle images based on emotional information of speech utterances |
言語 |
|
|
言語 |
jpn |
キーワード |
|
|
主題Scheme |
Other |
|
主題 |
一般発表 |
資源タイプ |
|
|
資源タイプ識別子 |
http://purl.org/coar/resource_type/c_18gh |
|
資源タイプ |
technical report |
著者所属 |
|
|
|
神戸大学システム情報学研究科 |
著者所属 |
|
|
|
三菱電機株式会社情報技術総合研究所 |
著者所属 |
|
|
|
神戸大学システム情報学研究科 |
著者所属 |
|
|
|
神戸大学システム情報学研究科 |
著者所属 |
|
|
|
三菱電機株式会社情報技術総合研究所 |
著者所属(英) |
|
|
|
en |
|
|
Graduate School of System Informatics, Kobe University |
著者所属(英) |
|
|
|
en |
|
|
Mitsubishi Electric Corporation, Information Technology R&D Center |
著者所属(英) |
|
|
|
en |
|
|
Graduate School of System Informatics, Kobe University |
著者所属(英) |
|
|
|
en |
|
|
Graduate School of System Informatics, Kobe University |
著者所属(英) |
|
|
|
en |
|
|
Mitsubishi Electric Corporation, Information Technology R&D Center |
著者名 |
中村, 史也
相原, 龍
高島, 遼一
滝口, 哲也
伊谷, 裕介
|
著者名(英) |
Fumiya, Nakamura
Ryo, Aihara
Ryoichi, Takashima
Tetsuya, Takiguchi
Yusuke, Itani
|
論文抄録 |
|
|
内容記述タイプ |
Other |
|
内容記述 |
従来の音声認識による自動字幕生成システムでは,発話に含まれる感情などのパラ言語情報を考慮していないため,皮肉表現や多義語などを含む発話では字幕だけから内容を理解することは難しい.このような場合,音声に含まれる感情をフォントや色で視覚化した字幕を生成することが有効であると考えられる.このため我々は以前,音声認識と音声感情認識の結果から,GAN による画像変換を用いてフォント字幕画像を生成する手法を検討したが,複雑な感情をフォントのみで表現することは難しいことが明らかになった.そこで本研究では,感情を valence-activation の 2 次元空間上で捉え,Russell の円環モデルと Plutchik の感情の輪をもとに感情空間上のカラーマップを作成することで,感情をフォントに加えて色も利用して視覚化する手法を提案する.IEMOCAP データセットの音声を用いて音声認識とカテゴリカルな感情認識,valence-activation の推定の 3 種類でマルチタスク学習を行い,作成したカラーマップを用いて音声から実際に色付きの字幕を生成する実験を行うことで提案手法の有効性を確認する. |
論文抄録(英) |
|
|
内容記述タイプ |
Other |
|
内容記述 |
Conventional automatic subtitle generation systems based on speech recognition do not take into account paralinguistic information such as emotions included in speech, so it is difficult to understand the content of speech containing sarcastic expressions or polysemous words from subtitles alone. In such cases, it would be effective to generate subtitles that visualize the emotions contained in speech using fonts and colors. For this reason, we have previously studied a method to generate font subtitle images from speech recognition and speech emotion recognition results using image transformation with GAN, but it became clear that it is difficult to express complex emotions only with fonts. In this study, we propose a method to visualize emotions using not only fonts but also colors, by capturing emotions in a two-dimensional valence-activation space and creating a colormap in the emotion space based on Russell’s circumplex model and Plutchik’s wheel of emotions. We conducted multi-task training on three types of speech recognition, categorical emotion recognition, and valence-activation estimation using speech from the IEMOCAP dataset, and experimented with generating colored subtitles from speech using the created colormap. |
書誌レコードID |
|
|
収録物識別子タイプ |
NCID |
|
収録物識別子 |
AN10438388 |
書誌情報 |
研究報告音楽情報科学(MUS)
巻 2023-MUS-137,
号 30,
p. 1-6,
発行日 2023-06-16
|
ISSN |
|
|
収録物識別子タイプ |
ISSN |
|
収録物識別子 |
2188-8752 |
Notice |
|
|
|
SIG Technical Reports are nonrefereed and hence may later appear in any journals, conferences, symposia, etc. |
出版者 |
|
|
言語 |
ja |
|
出版者 |
情報処理学会 |