<?xml version='1.0' encoding='UTF-8'?>
<OAI-PMH xmlns="http://www.openarchives.org/OAI/2.0/" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http://www.openarchives.org/OAI/2.0/ http://www.openarchives.org/OAI/2.0/OAI-PMH.xsd">
  <responseDate>2026-03-09T02:35:41Z</responseDate>
  <request metadataPrefix="oai_dc" verb="GetRecord" identifier="oai:ipsj.ixsq.nii.ac.jp:00079563">https://ipsj.ixsq.nii.ac.jp/oai</request>
  <GetRecord>
    <record>
      <header>
        <identifier>oai:ipsj.ixsq.nii.ac.jp:00079563</identifier>
        <datestamp>2025-01-21T20:11:30Z</datestamp>
        <setSpec>581:6276:6633</setSpec>
      </header>
      <metadata>
        <oai_dc:dc xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:oai_dc="http://www.openarchives.org/OAI/2.0/oai_dc/" xmlns="http://www.w3.org/2001/XMLSchema" xsi:schemaLocation="http://www.openarchives.org/OAI/2.0/oai_dc/ http://www.openarchives.org/OAI/2.0/oai_dc.xsd">
          <dc:title>音楽共演ロボット：開始・終了キューの画像認識による人間のフルート奏者との実時間同期</dc:title>
          <dc:title>Musical Robot Co-Player: Real-time Synchronization with a Human Flutist Recognizing Visual Start and End Cues</dc:title>
          <dc:creator>リム, アンジェリカ</dc:creator>
          <dc:creator>水本, 武志</dc:creator>
          <dc:creator>大塚琢馬</dc:creator>
          <dc:creator>古谷, ルイ賢造カイエ</dc:creator>
          <dc:creator>尾形, 哲也</dc:creator>
          <dc:creator>奥乃, 博</dc:creator>
          <dc:creator>Angelica, Lim</dc:creator>
          <dc:creator>Takeshi, Mizumoto</dc:creator>
          <dc:creator>Takuma, Otsuka</dc:creator>
          <dc:creator>Louis-Kenzo, FuruyaCahier</dc:creator>
          <dc:creator>Tetsuya, Ogata</dc:creator>
          <dc:creator>Hiroshi, G.Okuno</dc:creator>
          <dc:subject>特集：情報爆発時代におけるIT基盤技術</dc:subject>
          <dc:description>聞く，見るは，共演者が仲間の演奏者とテンポを合わせて演奏するために重要なスキルである．画像キュー（cue，合図）を検知し，他の演奏者に耳を傾けることによって，演奏者はいっせいに演奏を始め，テンポの緩急の合図に合わせ，さらに，いっせいに演奏を終えることができる．本稿では，人間のフルート奏者がアンサンブルリーダを担い，ロボットは伴奏者として人間の演奏に追従する問題を扱う．まず，フルート奏者の3種類のジェスチャを提案し，画像キューによる認識，音響ビートと画像キューとの統合によるテンポ推定について述べ，テルミン演奏共演ロボットのジェスチャ認識について報告する．初期実験で3タイプの画像キューが83%以上で検出できること，また，画像キューと音響ビート検出とを組み合わせることにより，テンポ検出が0.5秒以内に行えればビート追跡が安定することが分かった．この結果，フルート奏者の指示に合わせて共演者音楽ロボットがテルミンを演奏し，歌を歌うことが可能となった．</dc:description>
          <dc:description>Listening and watching are important skills for co-players to play in time with fellow musicians. By detecting visual cues and listening to other players, musicians can start together, stop together, and follow a leader's visual cues of changes in tempo. In this paper, we formalize three visual cues for the case of flutists, and describe how our thereminist robot co-player system detects them. Initial experiments show over 83% detection rates for our 3 types of visual cues. Additionally, by coupling visual cues and acoustic beat detection, the robot can extract a tempo in half a second. The resulting robot co-player can play theremin and sing a song with the lead of a human flutist.</dc:description>
          <dc:description>journal article</dc:description>
          <dc:date>2011-12-15</dc:date>
          <dc:format>application/pdf</dc:format>
          <dc:identifier>情報処理学会論文誌</dc:identifier>
          <dc:identifier>12</dc:identifier>
          <dc:identifier>52</dc:identifier>
          <dc:identifier>3599</dc:identifier>
          <dc:identifier>3610</dc:identifier>
          <dc:identifier>1882-7764</dc:identifier>
          <dc:identifier>AN00116647</dc:identifier>
          <dc:identifier>https://ipsj.ixsq.nii.ac.jp/record/79563/files/IPSJ-JNL5212069.pdf</dc:identifier>
          <dc:language>jpn</dc:language>
        </oai_dc:dc>
      </metadata>
    </record>
  </GetRecord>
</OAI-PMH>
