| Item type |
SIG Technical Reports(1) |
| 公開日 |
2016-07-23 |
| タイトル |
|
|
タイトル |
視聴覚統合ビートトラッキングとリアルタイムコード認識を用いたダンス共演ロボット |
| 言語 |
|
|
言語 |
jpn |
| キーワード |
|
|
主題Scheme |
Other |
|
主題 |
ダンス |
| 資源タイプ |
|
|
資源タイプ識別子 |
http://purl.org/coar/resource_type/c_18gh |
|
資源タイプ |
technical report |
| 著者所属 |
|
|
|
京都大学 |
| 著者所属 |
|
|
|
京都大学 |
| 著者所属 |
|
|
|
京都大学 |
| 著者所属 |
|
|
|
京都大学 |
| 著者名 |
大喜多, 美里
坂東, 宜昭
糸山, 克寿
吉井, 和佳
|
| 論文抄録 |
|
|
内容記述タイプ |
Other |
|
内容記述 |
本稿の目標は音楽音響信号と共演者 (人間) のダンスを表す骨格情報を用いて,ビートやコードといった音楽情報を推定しながら踊る共演ロボットの開発である.実用的なロボットだけでなく人が親しみを感じるようなエンターテイメントロボットを開発することは,将来的に人とロボットが共存するために重要な課題である.提案システムは,視聴覚統合ビートトラッキング部,コード認識部,ロボット動作制御部から成る.ビートトラッキングでは,音響信号を用いた手法が数多く提案されてきたが,テンポ変動や裏拍を多く含む楽曲の場合精度が十分でないという問題から,我々は共演者のダンスを表す骨格情報を用いた視聴覚統合ビートトラッキングを提案してきた.この手法は,一意に定めた音響テンポと視覚テンポ尤度の推定誤りが視聴覚統合に影響するという問題があった.本稿では,音響テンポを尤度として求め,さらに視覚テンポ尤度を平滑化して統合することで精度向上を図る.コード認識では,特徴量の出力確率の計算で混合 von Mises-Fisher 分布が混合ガウス分布に比べて有効であることが知られているため,本稿では混合 von Mises-Fisher 分布を用いてリアルタイムでのコード認識を行う.実験では,提案法による視聴覚統合ビートトラッキングの有効性と,ロボットのシミュレータを用いて提案システムの動作を確認した. |
| 書誌レコードID |
|
|
収録物識別子タイプ |
NCID |
|
収録物識別子 |
AN10438388 |
| 書誌情報 |
研究報告音楽情報科学(MUS)
巻 2016-MUS-112,
号 15,
p. 1-6,
発行日 2016-07-23
|
| ISSN |
|
|
収録物識別子タイプ |
ISSN |
|
収録物識別子 |
2188-8752 |
| Notice |
|
|
|
SIG Technical Reports are nonrefereed and hence may later appear in any journals, conferences, symposia, etc. |
| 出版者 |
|
|
言語 |
ja |
|
出版者 |
情報処理学会 |