@techreport{oai:ipsj.ixsq.nii.ac.jp:00106892,
 author = {渡辺, 和泉 and 中村, 亮介 and 金丸, 悠理 and 後藤, 敏行 and 田村, 直良 and 島田, 広 and Izumi, Watanabe and Ryosuke, Nakamura and Yuri, Kanamaru and Toshiyuki, Gotoh and Naoyosi, Tamura and Hiroshi, Shimada},
 issue = {14},
 month = {Nov},
 note = {筆者らは,MIDI シーケンサを備え,独立に演奏を模擬する複数の演奏エージェントで構成されたマルチエージェント協調演奏システムの開発を進めている.本発表では,入力された歌声や楽器音などの音響信号を認識し,テンポ,演奏位置,音高のズレなどの演奏情報を解析して,MIDI 信号として出力する手法について報告する.さらに,開発した音響信号モジュール,MusicXML から装飾記号を埋め込んだ拡張 MIDI 生成モジュール,演奏エージェントモジュールを結合させた協調演奏システムの構成について述べる.これにより,テンポだけでなく,移調などによる音高変化にも追随する協調演奏が可能であることを確認した., We have developed an automated musical performance system based on multiple agent simulations, which enable us to play music with multiple agents and real users. In this paper, we describe a method which recognizes the inputted sound signals of human voices and musical instrument sounds, and analyzes the performance information, in order to generate the MIDI sequences with a pitch bend. The configuration of prototype system, which consists of acoustic and music analysis, expanded MIDI transform, and musical performance agent modules, is also discussed.},
 title = {実時間音響入力を備えたマルチエージェント協調演奏システム},
 year = {2014}
}