Item type |
Journal(1) |
公開日 |
2020-04-15 |
タイトル |
|
|
タイトル |
INSTRUDIVE:楽器編成の自動認識に基づく楽曲探索システム |
タイトル |
|
|
言語 |
en |
|
タイトル |
INSTRUDIVE: A Music Exploration System Based on Automatic Recognition of Instrumentation |
言語 |
|
|
言語 |
jpn |
キーワード |
|
|
主題Scheme |
Other |
|
主題 |
[特集:ますます拡がる音楽情報処理] 音楽情報検索,音楽インタフェース,音楽可視化,楽器認識,畳み込みニューラルネットワーク |
資源タイプ |
|
|
資源タイプ識別子 |
http://purl.org/coar/resource_type/c_6501 |
|
資源タイプ |
journal article |
ID登録 |
|
|
ID登録 |
10.20729/00204228 |
|
ID登録タイプ |
JaLC |
著者所属 |
|
|
|
産業技術総合研究所/筑波大学 |
著者所属 |
|
|
|
産業技術総合研究所 |
著者所属 |
|
|
|
産業技術総合研究所 |
著者所属(英) |
|
|
|
en |
|
|
National Institute of Advanced Industrial Science and Technology (AIST) / University of Tsukuba |
著者所属(英) |
|
|
|
en |
|
|
National Institute of Advanced Industrial Science and Technology (AIST) |
著者所属(英) |
|
|
|
en |
|
|
National Institute of Advanced Industrial Science and Technology (AIST) |
著者名 |
高橋, 卓見
深山, 覚
後藤, 真孝
|
著者名(英) |
Takumi, Takahashi
Satoru, Fukayama
Masataka, Goto
|
論文抄録 |
|
|
内容記述タイプ |
Other |
|
内容記述 |
本論文では,楽曲を特徴付ける要素である楽器編成に基づいて楽曲探索を行うことができるシステムINSTRUDIVEを提案する. 従来,自動認識した楽器編成を用いて楽曲を探索するための効果的な方法は明らかにされておらず,商用音楽配信サービスでも利用されていなかった.本研究では,大規模な楽曲群を扱う前の第1段階として,様々なジャンルの122曲で構成される小規模な研究用公開楽曲データセットを対象に,既存の自動楽器認識手法より高性能な手法を提案したうえで,実際に楽器編成に基づいて楽曲探索が可能な方法を示すことを目的とする.提案する楽器認識手法は, 畳み込みニューラルネットワーク(CNN)モデルに基づいている. その畳み込み層は音色的な特徴を表現するために周波数軸方向のみに畳み込んだ後に,その時間変化を表現するために時間軸方向のみに畳み込む点が特徴的であり,画像処理で一般的な正方形カーネルを用いた畳み込みとは異なる. 最新手法を含む3種類の既存楽器認識手法との比較評価の結果,提案手法が最も高い認識性能を示した.次に,その認識結果を楽曲探索に役立たせることができる具体的な方法として,楽器編成に基づく新機能を有する楽曲探索インタフェースを提案する.そのインタフェースを実装し,24名の被験者に対して予備評価実験をした結果,実験者が監視していない状況でも,被験者は各楽曲の楽器編成を可視化した円グラフでその違いを把握しながら,楽曲探索が可能なことを確認した. |
論文抄録(英) |
|
|
内容記述タイプ |
Other |
|
内容記述 |
In this paper, we propose a music exploration system INSTRUDIVE focusing on instrumentation that is a key factor in determining musical sound characteristics. Conventionally, an effective method for exploring musical pieces by using automatically recognized musical instruments has not been clarified, and it has not been used in commercial music distribution services. The goal of this research is to propose an automatic instrument recognition method that outperforms existing methods and then show a method that enables music exploration based on instrumentation. Our instrument recognition method is based on a convolutional neural network (CNN) model whose layers first convolve input along the frequency axis to express timbre characteristics, and then convolve along the time axis to express their temporal characteristics. It thus uses a convolution kernel that is different from a typical square kernel used in image processing. In our evaluation, we confirmed that the proposed method was superior to three existing methods. We then propose a music exploration interface with a new function based on the instrumentation. As a result of implementing the interface and conducting a preliminary experiment on 24 subjects, even when the experimenter was not monitoring, we confirmed that subjects were able to explore musical pieces by using a pie chart that visualized the instrumentation of each song. |
書誌レコードID |
|
|
収録物識別子タイプ |
NCID |
|
収録物識別子 |
AN00116647 |
書誌情報 |
情報処理学会論文誌
巻 61,
号 4,
p. 777-788,
発行日 2020-04-15
|
ISSN |
|
|
収録物識別子タイプ |
ISSN |
|
収録物識別子 |
1882-7764 |