ログイン 新規登録
言語:

WEKO3

  • トップ
  • ランキング
To
lat lon distance
To

Field does not validate



インデックスリンク

インデックスツリー

メールアドレスを入力してください。

WEKO

One fine body…

WEKO

One fine body…

アイテム

  1. 論文誌(ジャーナル)
  2. Vol.63
  3. No.4

自然で表現豊かな笑い声合成に向けた感情情報からの笑い声の構成要素決定法

https://doi.org/10.20729/00217618
https://doi.org/10.20729/00217618
a2bdad35-4420-4c60-a616-60054360be37
名前 / ファイル ライセンス アクション
IPSJ-JNL6304024.pdf IPSJ-JNL6304024.pdf (1.1 MB)
Copyright (c) 2022 by the Information Processing Society of Japan
オープンアクセス
Item type Journal(1)
公開日 2022-04-15
タイトル
タイトル 自然で表現豊かな笑い声合成に向けた感情情報からの笑い声の構成要素決定法
タイトル
言語 en
タイトル Laughter Components Estimation Using Emotional Information towards Natural and Expressive Laughter Synthesis
言語
言語 jpn
キーワード
主題Scheme Other
主題 [一般論文] 笑い声合成,感情次元,笑い声の構成要素,ディリクレ回帰,WaveNet
資源タイプ
資源タイプ識別子 http://purl.org/coar/resource_type/c_6501
資源タイプ journal article
ID登録
ID登録 10.20729/00217618
ID登録タイプ JaLC
著者所属
千葉工業大学
著者所属
千葉工業大学/現在,株式会社エーアイ
著者所属
宇都宮大学
著者所属(英)
en
Chiba Institute of Technology
著者所属(英)
en
Chiba Institute of Technology / Presently with AI, Inc.
著者所属(英)
en
Utsunomiya University
著者名 有本, 泰子

× 有本, 泰子

有本, 泰子

Search repository
今西, 利於

× 今西, 利於

今西, 利於

Search repository
森, 大毅

× 森, 大毅

森, 大毅

Search repository
著者名(英) Yoshiko, Arimoto

× Yoshiko, Arimoto

en Yoshiko, Arimoto

Search repository
Rio, Imanishi

× Rio, Imanishi

en Rio, Imanishi

Search repository
Hiroki, Mori

× Hiroki, Mori

en Hiroki, Mori

Search repository
論文抄録
内容記述タイプ Other
内容記述 自然で表現豊かな笑い声合成の実現のために,その入力情報となる笑い声の構成要素を決定する方法を提案する.従来手法では,笑い声を合成する際に入力する笑い声の構成要素の並びを人手により指定する必要があった.また,入力とする笑い声の構成要素を記述するためには音響音声学的知識が不可欠であるため,ユーザが直感的に入力情報を記述することは困難である.本研究では,より直感的な操作による自然で表現豊かな笑い声合成の実現に向けて,入力情報となる笑い声の構成要素の並びをその感情情報を利用して決定する手法について提案する.まずは,構成要素と感情情報との関係を明らかにするため,笑い声を構成する無声呼気・有声呼気・無声吸気・有声吸気の各音響イベント間で聴取実験により付与された感情3次元(快-不快,覚醒-睡眠,支配-服従)に差があるか検証した.その結果,いずれの感情次元においても,構成要素間に有意な差が認められた.さらに,提案手法を用いて入力となる構成要素列を決定した笑い声を合成し,その自然性と感情知覚を評価する聴取実験を行った.その結果,提案手法を用いて笑い声の構成要素を自動決定しても,自然性を損なうことなく,感情知覚させることのできる笑い声の合成が可能であることを示した.
論文抄録(英)
内容記述タイプ Other
内容記述 Towards natural and expressive laughter synthesis, a determination method of the laughter components is proposed for automatically creating input information for laughter synthesis system. The conventional laughter synthesis requires manual arrangement of laughter components when synthesizing laughter. In addition, it is difficult for end-users to intuitively arrange them to synthesize laughters because acoustic and phonetic knowledge should be required to arrange its complicated structure of laughter components. To synthesize natural and expressive laughters by more intuitive operation, this study proposes a method to determine the sequence of laughter components as the input information using the emotional information. First, to clarify the relationship between each laughter component (unvoiced exhalation, voiced exhalation, unvoiced inhalation, and voiced inhalation) and emotional information, statistical tests were performed on the factor of laughter component using the perception scores on three emotional dimensions (pleasantness, arousal, and dominance). The result revealed the significant differences between the four components for all emotional dimensions. Furthermore, a listening test was conducted to evaluate the naturalness and emotional perception of synthesizing laughter using the input component sequence determined by the proposed method. As a result, it was found that the synthesized laughter using our approach is emotionally perceivable without losing its naturalness.
書誌レコードID
収録物識別子タイプ NCID
収録物識別子 AN00116647
書誌情報 情報処理学会論文誌

巻 63, 号 4, p. 1159-1169, 発行日 2022-04-15
ISSN
収録物識別子タイプ ISSN
収録物識別子 1882-7764
戻る
0
views
See details
Views

Versions

Ver.1 2025-01-19 15:24:08.676409
Show All versions

Share

Mendeley Twitter Facebook Print Addthis

Cite as

エクスポート

OAI-PMH
  • OAI-PMH JPCOAR
  • OAI-PMH DublinCore
  • OAI-PMH DDI
Other Formats
  • JSON
  • BIBTEX

Confirm


Powered by WEKO3


Powered by WEKO3