WEKO3
アイテム
音楽に合った舞踊動作の自動生成
https://ipsj.ixsq.nii.ac.jp/records/62861
https://ipsj.ixsq.nii.ac.jp/records/62861c0a900d1-8d80-43ed-9940-7fa0603ded45
名前 / ファイル | ライセンス | アクション |
---|---|---|
![]() |
Copyright (c) 2009 by the Information Processing Society of Japan
|
|
オープンアクセス |
Item type | SIG Technical Reports(1) | |||||||
---|---|---|---|---|---|---|---|---|
公開日 | 2009-06-02 | |||||||
タイトル | ||||||||
タイトル | 音楽に合った舞踊動作の自動生成 | |||||||
タイトル | ||||||||
言語 | en | |||||||
タイトル | Dance to Music Character Animation | |||||||
言語 | ||||||||
言語 | jpn | |||||||
キーワード | ||||||||
主題Scheme | Other | |||||||
主題 | 卒論セッション・概要発表2 | |||||||
資源タイプ | ||||||||
資源タイプ識別子 | http://purl.org/coar/resource_type/c_18gh | |||||||
資源タイプ | technical report | |||||||
著者所属 | ||||||||
大阪大学大学院情報科学研究科 | ||||||||
著者所属 | ||||||||
大阪大学大学院情報科学研究科/大阪大学サイバーメディアセンター | ||||||||
著者所属 | ||||||||
大阪大学大学院情報科学研究科/大阪大学サイバーメディアセンター | ||||||||
著者所属(英) | ||||||||
en | ||||||||
Graduate School of Information Science and Technology, Osaka University | ||||||||
著者所属(英) | ||||||||
en | ||||||||
Graduate School of Information Science and Technology, Osaka University / Cybermedia Center, Osaka University | ||||||||
著者所属(英) | ||||||||
en | ||||||||
Graduate School of Information Science and Technology, Osaka University / Cybermedia Center, Osaka University | ||||||||
著者名 |
二宮, 啓
中澤, 篤志
竹村, 治雄
× 二宮, 啓 中澤, 篤志 竹村, 治雄
|
|||||||
著者名(英) |
Kei, Ninomiya
Atsushi, Nakazawa
Haruo, Takemura
× Kei, Ninomiya Atsushi, Nakazawa Haruo, Takemura
|
|||||||
論文抄録 | ||||||||
内容記述タイプ | Other | |||||||
内容記述 | 近年コンピュータグラフィクスの分野では,リアルなキャラクタのアニメーションを生成する手法が数多く提案されてきている.我々は,人間の振る舞いを左右する感情を考慮した舞踊動作を対象として,入力の音楽信号から舞踊の表現に関係する音楽情景を解析し,その結果に合った舞踊動作を生成する手法を提案してきた.動きデータからは動きのリズムと盛り上がりの特徴量を,音楽データからは楽曲構造解析によってセグメント分割し,特徴量としてリズム,盛り上がりを抽出する.舞踊動作生成時は,まず構造解析によって得られる音楽セグメント内のリズム成分と高い相関を示す動きの候補セグメントをすべて抽出する.そして最後に盛り上がり成分の相関を求めることで最適な動きセグメントを選択し,連結することで舞踊動作が生成する.またこの手法に対し,新たなモーションキャプチャデータを加えて動作生成し,生成された動作に対するブラインドユーザーテストによる有効性の評価,専門家による評価,ならびに一般ユーザーの利用に向けた WEB アプリケーションを開発した. | |||||||
論文抄録(英) | ||||||||
内容記述タイプ | Other | |||||||
内容記述 | This paper presents a new approach for synthesizing dance motion matched to input music based on the emotional aspects of dance performance. Our analysis method extracts motion rhythm and intensity from motion capture data and musical rhythm, structure, and intensity from musical signals. For synthesizing dance performance, we first find candidates of motion segment sets whose features are matched to those of music segments, and then we find the motion segment set whose intensity is matched to that of music segments. The experimental results indicate that our method actually creates dance performance as if the character was listening to the music. | |||||||
書誌レコードID | ||||||||
収録物識別子タイプ | NCID | |||||||
収録物識別子 | AA11131797 | |||||||
書誌情報 |
研究報告コンピュータビジョンとイメージメディア(CVIM) 巻 2009-CVIM-167, 号 34, p. 1-8, 発行日 2009-06-02 |
|||||||
Notice | ||||||||
SIG Technical Reports are nonrefereed and hence may later appear in any journals, conferences, symposia, etc. | ||||||||
出版者 | ||||||||
言語 | ja | |||||||
出版者 | 情報処理学会 |