| Item type |
Symposium(1) |
| 公開日 |
2018-06-27 |
| タイトル |
|
|
タイトル |
発話言語に基づく身体モーションの自動生成 |
| 言語 |
|
|
言語 |
jpn |
| キーワード |
|
|
主題Scheme |
Other |
|
主題 |
グループウェア |
| 資源タイプ |
|
|
資源タイプ識別子 |
http://purl.org/coar/resource_type/c_5794 |
|
資源タイプ |
conference paper |
| 著者所属 |
|
|
|
日本電信電話株式会社 NTTメディアインテリ ジェンス研究所 |
| 著者所属 |
|
|
|
日本電信電話株式会社 NTTメディアインテリ ジェンス研究所 |
| 著者所属 |
|
|
|
日本電信電話株式会社 NTTメディアインテリ ジェンス研究所 |
| 著者所属 |
|
|
|
日本電信電話株式会社 NTTメディアインテリ ジェンス研究所 |
| 著者名 |
石井, 亮
片山, 太一
東中, 竜一郎
富田, 準二
|
| 論文抄録 |
|
|
内容記述タイプ |
Other |
|
内容記述 |
人間のコミュニケーションにおいて,身体モーションは,発話言語に加えて感情や意図を伝達する重要な機能を持つ.そのため,擬人化エージェントやヒューマノイドロボットを用いた対話システムにおいて,発話に応じて適切な身体モーションを表出し,ユーザとの円滑なコミュニケーションを行うことが望まれている.本研究では,発話言語から得られる多様な言語解析情報を利用して,人間と同様な適切なタイミングで発話に伴う全身の身体モーションを自動生成する技術を提案する.具体的に,発話言語に含まれる単語,その品詞およびシソーラス,単語位置,発話言語全体の発話行為といった多様な言語情報と人間の身体モーションとの共起関係に着目し,これらの発話言語情報を用いて,頷き,頭部姿勢,表情,ハンドジェスチャ,上半身の姿勢を自動生成するモデルを構築した.最初に,2 者対話を収録し,発話および頭部運動,表情,ハンドジェスチャ,身体姿勢情報を含むマルチモーダルコーパスを構築した.次に,構築したコーパスデータを用いて,単語,その品詞およびシソーラス,単語位置,発話言語全体の発話行為を入力として,文節単位ごとにモーションを生成するモデルを,機械学習を用いて構築する.その結果,本研究で用いた多様な言語情報がモーション生成に有用な情報であることが示唆された.次に,本技術を広く利用できるための試みとして,構築した生成モデルを用いてモーションを容易に生成可能なAPIを構築し,UNITY 上の CG キャラクタを発話言語のみから自動制御可能なデモシステムを構築した.本システムでは,任意の発話言語を入力すると,音声合成器およびモーション生成 API から合成音とモーション情報を取得し,UNITY の発声およびモーション付きアニメーションを生成する.このデモシステムを用いて,ユーザ主観評価実験を実施した結果,本技術により擬人化エージェントのモーションの自然さや好感度などの主観評価値が向上することが確認された. |
| 書誌情報 |
マルチメディア,分散協調とモバイルシンポジウム2018論文集
巻 2018,
p. 1863-1868,
発行日 2018-06-27
|
| 出版者 |
|
|
言語 |
ja |
|
出版者 |
情報処理学会 |