WEKO3
アイテム
音楽共演ロボット:開始・終了キューの画像認識による人間のフルート奏者との実時間同期
https://ipsj.ixsq.nii.ac.jp/records/79563
https://ipsj.ixsq.nii.ac.jp/records/79563a97a8d91-2484-4c72-bd94-6085df143337
| 名前 / ファイル | ライセンス | アクション |
|---|---|---|
|
|
Copyright (c) 2011 by the Information Processing Society of Japan
|
|
| オープンアクセス | ||
| Item type | Journal(1) | |||||||
|---|---|---|---|---|---|---|---|---|
| 公開日 | 2011-12-15 | |||||||
| タイトル | ||||||||
| タイトル | 音楽共演ロボット:開始・終了キューの画像認識による人間のフルート奏者との実時間同期 | |||||||
| タイトル | ||||||||
| 言語 | en | |||||||
| タイトル | Musical Robot Co-Player: Real-time Synchronization with a Human Flutist Recognizing Visual Start and End Cues | |||||||
| 言語 | ||||||||
| 言語 | jpn | |||||||
| キーワード | ||||||||
| 主題Scheme | Other | |||||||
| 主題 | 特集:情報爆発時代におけるIT基盤技術 | |||||||
| 資源タイプ | ||||||||
| 資源タイプ識別子 | http://purl.org/coar/resource_type/c_6501 | |||||||
| 資源タイプ | journal article | |||||||
| 著者所属 | ||||||||
| 京都大学大学院情報学研究科 | ||||||||
| 著者所属 | ||||||||
| 京都大学大学院情報学研究科 | ||||||||
| 著者所属 | ||||||||
| 京都大学大学院情報学研究科 | ||||||||
| 著者所属 | ||||||||
| 京都大学大学院情報学研究科 | ||||||||
| 著者所属 | ||||||||
| 京都大学大学院情報学研究科 | ||||||||
| 著者所属 | ||||||||
| 京都大学大学院情報学研究科 | ||||||||
| 著者所属(英) | ||||||||
| en | ||||||||
| Graduate School of Informatics, Kyoto University | ||||||||
| 著者所属(英) | ||||||||
| en | ||||||||
| Graduate School of Informatics, Kyoto University | ||||||||
| 著者所属(英) | ||||||||
| en | ||||||||
| Graduate School of Informatics, Kyoto University | ||||||||
| 著者所属(英) | ||||||||
| en | ||||||||
| Graduate School of Informatics, Kyoto University | ||||||||
| 著者所属(英) | ||||||||
| en | ||||||||
| Graduate School of Informatics, Kyoto University | ||||||||
| 著者所属(英) | ||||||||
| en | ||||||||
| Graduate School of Informatics, Kyoto University | ||||||||
| 著者名 |
リム, アンジェリカ
水本, 武志
大塚琢馬
古谷, ルイ賢造カイエ
尾形, 哲也
奥乃, 博
× リム, アンジェリカ 水本, 武志 大塚琢馬 古谷, ルイ賢造カイエ 尾形, 哲也 奥乃, 博
|
|||||||
| 著者名(英) |
Angelica, Lim
Takeshi, Mizumoto
Takuma, Otsuka
Louis-Kenzo, FuruyaCahier
Tetsuya, Ogata
Hiroshi, G.Okuno
× Angelica, Lim Takeshi, Mizumoto Takuma, Otsuka Louis-Kenzo, FuruyaCahier Tetsuya, Ogata Hiroshi, G.Okuno
|
|||||||
| 論文抄録 | ||||||||
| 内容記述タイプ | Other | |||||||
| 内容記述 | 聞く,見るは,共演者が仲間の演奏者とテンポを合わせて演奏するために重要なスキルである.画像キュー(cue,合図)を検知し,他の演奏者に耳を傾けることによって,演奏者はいっせいに演奏を始め,テンポの緩急の合図に合わせ,さらに,いっせいに演奏を終えることができる.本稿では,人間のフルート奏者がアンサンブルリーダを担い,ロボットは伴奏者として人間の演奏に追従する問題を扱う.まず,フルート奏者の3種類のジェスチャを提案し,画像キューによる認識,音響ビートと画像キューとの統合によるテンポ推定について述べ,テルミン演奏共演ロボットのジェスチャ認識について報告する.初期実験で3タイプの画像キューが83%以上で検出できること,また,画像キューと音響ビート検出とを組み合わせることにより,テンポ検出が0.5秒以内に行えればビート追跡が安定することが分かった.この結果,フルート奏者の指示に合わせて共演者音楽ロボットがテルミンを演奏し,歌を歌うことが可能となった. | |||||||
| 論文抄録(英) | ||||||||
| 内容記述タイプ | Other | |||||||
| 内容記述 | Listening and watching are important skills for co-players to play in time with fellow musicians. By detecting visual cues and listening to other players, musicians can start together, stop together, and follow a leader's visual cues of changes in tempo. In this paper, we formalize three visual cues for the case of flutists, and describe how our thereminist robot co-player system detects them. Initial experiments show over 83% detection rates for our 3 types of visual cues. Additionally, by coupling visual cues and acoustic beat detection, the robot can extract a tempo in half a second. The resulting robot co-player can play theremin and sing a song with the lead of a human flutist. | |||||||
| 書誌レコードID | ||||||||
| 収録物識別子タイプ | NCID | |||||||
| 収録物識別子 | AN00116647 | |||||||
| 書誌情報 |
情報処理学会論文誌 巻 52, 号 12, p. 3599-3610, 発行日 2011-12-15 |
|||||||
| ISSN | ||||||||
| 収録物識別子タイプ | ISSN | |||||||
| 収録物識別子 | 1882-7764 | |||||||