ログイン 新規登録
言語:

WEKO3

  • トップ
  • ランキング
To
lat lon distance
To

Field does not validate



インデックスリンク

インデックスツリー

メールアドレスを入力してください。

WEKO

One fine body…

WEKO

One fine body…

アイテム

  1. 研究報告
  2. 音楽情報科学(MUS)
  3. 2023
  4. 2023-MUS-137

個別楽器音に基づいた楽曲間類似度のための分離表現学習

https://ipsj.ixsq.nii.ac.jp/records/226313
https://ipsj.ixsq.nii.ac.jp/records/226313
26a00063-d18e-4380-8fa7-c8ee4b85157a
名前 / ファイル ライセンス アクション
IPSJ-MUS23137009.pdf IPSJ-MUS23137009.pdf (2.7 MB)
Copyright (c) 2023 by the Information Processing Society of Japan
オープンアクセス
Item type SIG Technical Reports(1)
公開日 2023-06-16
タイトル
タイトル 個別楽器音に基づいた楽曲間類似度のための分離表現学習
タイトル
言語 en
タイトル Disentangled representation learning for music similarity based on individual instrumental sounds
言語
言語 jpn
キーワード
主題Scheme Other
主題 一般発表
資源タイプ
資源タイプ識別子 http://purl.org/coar/resource_type/c_18gh
資源タイプ technical report
著者所属
名古屋大学情報学研究科
著者所属
名古屋大学情報基板センター
著者所属
名古屋大学情報学研究科
著者所属
名古屋大学情報基板センター
著者名 橋爪, 優果

× 橋爪, 優果

橋爪, 優果

Search repository
李, 莉

× 李, 莉

李, 莉

Search repository
宮下, 敦志

× 宮下, 敦志

宮下, 敦志

Search repository
戸田, 智基

× 戸田, 智基

戸田, 智基

Search repository
論文抄録
内容記述タイプ Other
内容記述 柔軟な推薦・検索システムを実現するためには,楽曲の複数の部分的な要素に着目した楽曲間類似度を算出し,ユーザが着目したい要素を自由に選択できるようにすることが望ましい.我々は先行研究で,複数の個別ネットワークを用いて個別楽器音に着目した類似度を算出する手法を提案しているが,実際の検索システムにおいて各楽器音信号をクエリとして用いることは現実的でない.また,楽器音分離により分離された音源を代替的に使用すると,アーチファクトにより精度が低下することがわかっている.本報告では,楽曲そのものを入力とし,単一のネットワークで各楽器音に着目した類似度を計算する方法を提案する.具体的には,マスクを用いたトリプレット損失によって学習した Conditional Similarity Network によって抽出される,各楽器ごとに次元が分離された単一の類似度埋め込み空間を設計する.実験の結果,(1) 提案法は分離音を入力として個別ネットワークを用いるよりも精度の高い特徴表現を得ることができること,(2) 部分空間は対応する楽器の特徴を保持することができること,(3) 提案法による各楽器音に着目した類似楽曲の選択は,特にドラムやギターにおいて人の知覚と良く対応することが示された.
論文抄録(英)
内容記述タイプ Other
内容記述 To achieve a flexible recommendation and retrieval system, it is desirable to calculate music similarity by focusing on multiple partial elements of musical pieces and allowing the users to select the element they want to focus on. A previous study proposed using multiple individual networks for calculating music similarity based on each instrumental sound, but it is impractical to use each signal as a query in search systems. Using separated instrumental sounds alternatively resulted in less accuracy due to artifacts. In this paper, we propose a method to compute similarities focusing on each instrumental sound with a single network that takes mixed sounds as input instead of individual instrumental sounds. Specifically, we design a single similarity embedding space with disentangled dimensions for each instrument, extracted by Conditional Similarity Networks, which is trained by the triplet loss using masks. Experimental results have shown that (1) the proposed method can obtain more accurate feature representation than using individual networks using separated sounds as input, (2) each sub-embedding space can hold the characteristics of the corresponding instrument, and (3) the selection of similar musical pieces focusing on each instrumental sound by the proposed method can obtain human consent, especially in drums and guitar.
書誌レコードID
収録物識別子タイプ NCID
収録物識別子 AN10438388
書誌情報 研究報告音楽情報科学(MUS)

巻 2023-MUS-137, 号 9, p. 1-7, 発行日 2023-06-16
ISSN
収録物識別子タイプ ISSN
収録物識別子 2188-8752
Notice
SIG Technical Reports are nonrefereed and hence may later appear in any journals, conferences, symposia, etc.
出版者
言語 ja
出版者 情報処理学会
戻る
0
views
See details
Views

Versions

Ver.1 2025-01-19 12:31:02.825118
Show All versions

Share

Mendeley Twitter Facebook Print Addthis

Cite as

エクスポート

OAI-PMH
  • OAI-PMH JPCOAR
  • OAI-PMH DublinCore
  • OAI-PMH DDI
Other Formats
  • JSON
  • BIBTEX

Confirm


Powered by WEKO3


Powered by WEKO3