WEKO3
アイテム
表現豊かな音声の認識・合成とAffective Speech-to-Speech Translationへの応用
https://ipsj.ixsq.nii.ac.jp/records/141992
https://ipsj.ixsq.nii.ac.jp/records/141992c57aa2bb-266c-4dd9-b626-1e72619260e8
名前 / ファイル | ライセンス | アクション |
---|---|---|
![]() |
Copyright (c) 2015 by the Information Processing Society of Japan
|
|
オープンアクセス |
Item type | SIG Technical Reports(1) | |||||||
---|---|---|---|---|---|---|---|---|
公開日 | 2015-05-16 | |||||||
タイトル | ||||||||
タイトル | 表現豊かな音声の認識・合成とAffective Speech-to-Speech Translationへの応用 | |||||||
言語 | ||||||||
言語 | jpn | |||||||
キーワード | ||||||||
主題Scheme | Other | |||||||
主題 | 招待講演 | |||||||
資源タイプ | ||||||||
資源タイプ識別子 | http://purl.org/coar/resource_type/c_18gh | |||||||
資源タイプ | technical report | |||||||
著者所属 | ||||||||
北陸先端科学技術大学院大学 | ||||||||
著者名 |
赤木, 正人
× 赤木, 正人
|
|||||||
論文抄録 | ||||||||
内容記述タイプ | Other | |||||||
内容記述 | Speech-to-Speech Translation (S2ST) システムは,ある言語の発話された音声を他の言語の音声に変換するための重要な技術である.音声には言語情報のみならずパラ言語・非言語情報が含まれているが,これまでに提案された S2ST システムは主に言諸情報を扱ってきており,変換された音声は,感情などのパラ言語・非言語情報が合まれていない合成音声に限定されている.このため S2ST システムで,本来合まれている感情などのパラ言語・非言語情報を扱えるようにするためには,これらを合んだ音声の認識/合成システムが必要となる.本講演では,我々の研究グループで取り組んでいる “Affective S2ST” と呼ばれるシステムを紹介する.“Affective S2ST” は,S2ST システムにおいて話者の感情に特に焦点をあて,多言語間でのパラ言語・非言語情報の認識・変換・合成を目指すシステムである.講演では,(1) 音声中の感情をどのように表現し,音声生成・知覚のモデルを構築するか,(2) 多言語間での感情知覚の共通性・相違は何か,そして,(3) これらの議論にもとづいてどのようにシステムを構築するか,について話題を提供する. | |||||||
論文抄録(英) | ||||||||
内容記述タイプ | Other | |||||||
内容記述 | Speech-to-speech translation (S2ST) is the process by which a spoken utterance in one language is used to produce a spoken output in another language. The conventional approach to S2ST has focused on processing linguistic information only by directly translating the spoken utterance from the source language to the target language without taking into account paralinguistic and non-linguistic information such as the emotional states at play in the source language. This paper introduces activities of JAIST AIS lab1 that explore how to deal with para- and non-linguistic information among multiple languages, with a particular focus on speakers' emotional states, in S2ST applications called “affective S2ST”. In our efforts to construct an effective system, we discuss (1) how to describe emotions in speech and how to model the perception/production of emotions and (2) the commonality and differences among multiple languages in the proposed model. We then use these discussions as context for (3) an examination of our “affective S2ST” system in operation. | |||||||
書誌レコードID | ||||||||
収録物識別子タイプ | NCID | |||||||
収録物識別子 | AN10438388 | |||||||
書誌情報 |
研究報告音楽情報科学(MUS) 巻 2015-MUS-107, 号 6, p. 1-3, 発行日 2015-05-16 |
|||||||
ISSN | ||||||||
収録物識別子タイプ | ISSN | |||||||
収録物識別子 | 2188-8752 | |||||||
Notice | ||||||||
SIG Technical Reports are nonrefereed and hence may later appear in any journals, conferences, symposia, etc. | ||||||||
出版者 | ||||||||
言語 | ja | |||||||
出版者 | 情報処理学会 |