@techreport{oai:ipsj.ixsq.nii.ac.jp:00098457, author = {小泉, 悠馬 and 伊藤, 克亘 and Yuma, Koizumi and Katunobu, Itou}, issue = {17}, month = {Feb}, note = {連続励起振動楽器の演奏音の音量変化 (音量軌跡) を,音量記号などに起因するベースラインの大局的変化であるダイナミクスと,発想記号などに起因する局所的変化であるアーティキュレーションに分解する手法を提案する.本稿では,奏者はフレーズに統一感を持たせるために,楽曲の小区間では,いくつかのアーティキュレーションや奏法を選択的に組み合わせて演奏すると仮定する.ダイナミクス変動を和分プロセス,アーティキュレーション変動を AR モデルでモデル化し,遷移型線形動的システムを用いて音量軌跡を分離する.評価実験は,MIDIデータを用いて作成した人口データと,プロ奏者とアマチュア奏者の音量軌跡の分解実験を行った.人口データの分解実験からは,標準絶対誤差が0.75dBで分解可能であることから,局所解を抑制しつつ音量軌跡を分解できることが分かった.また実演奏音の分解実験では,演奏技術によるアーティキュレーションのバリエーションなどの演奏解析を行えることが示唆された., This paper proposes a method which decomposes an amplitude contour into a dynamics contour and an articulation contour. The dynamics is a global fluctuation arise from dynamic indications, and the articulation is a local fluctuation arise from expression marks. In this paper, the dynamics and the articulation are modeled by random walk and auto-regressive (AR) model, respectively. These models are embodied by using a switching linear dynamical system (SLDS), and an amplitude contour is decomposed by the SLDS. In our experiments, the proposed method successfully decomposed amplitude contours into dynamics and amplitude contours.}, title = {連続励起振動楽器を対象とした音量軌跡のダイナキクスとアーティキュレーションへの分解法}, year = {2014} }