@techreport{oai:ipsj.ixsq.nii.ac.jp:00055932,
 author = {野池, 賢二 and 豊田, 健一 and 片寄, 晴弘 and Kenzi, NOIKE and Ken'ichi, TOYODA and Haruhiro, KATAYOSE},
 issue = {14(2004-MUS-059)},
 month = {Feb},
 note = {コーパスベース(事例ベース)による表情付けシステムは,適切な事例の検索とその適用さえできれば,ルールベースのシステムに比べて格段に詳細な演奏表情の生成が可能である.しかし,その反面,データスパースネスによって何も表情が生成できない可能性があるという欠点も持つ.本稿では,表情の記述に熟慮した演奏 deviation データベースをコーパスとして用い,類似度の計算レベルを段階的に調節することによってデータスパースネス問題に対処したコーパスベースの表情付けシステムCOPER の基礎機能の実装とその評価について述べる., This paper describe an initial implementation of corpus based performance rendering system "COPER." In the corpus, expressive performances are represented using descriptors of nominal (quantized) note information and deviation terms. The deviation terms consist of whole tempo transition and delicate temporal and dynamic control under the tactus. "COPER" generates expression of a given music, by transcribing expressions of the corresponding note sequences, which are satisfactory with the given queries, in the corpus. The key used for the query was the musical group boundary and the pitch and duration transition of the melody. The paper also describe how the entry piece Chopin's Opus.10, No.3 at NIME04 Rencon was rendered by using "COPER".},
 title = {コーパスベース表情付けシステム COPER の基礎機能の実装とその評価},
 year = {2005}
}