@techreport{oai:ipsj.ixsq.nii.ac.jp:00218424,
 author = {市川, 創大 and 山田, 武志 and 牧野, 昭二 and Sota, Ichikawa and Takeshi, Yamada and Shoji, Makino},
 issue = {32},
 month = {Jun},
 note = {近年,マルチチャネル信号を入力とするビームフォーマを用いた音響シーン識別手法が提案されている.一般にビームフォーマの空間フィルタ(指向特性)を決定するためには,目的音方向などの事前情報が必要となる.しかし,個々の音響シーンにおいて注目すべき音がそもそもどんな音であり,またその音がどの方向にあるのかは自明ではないため,前処理としてビームフォーマを適用することは難しいと考えられる.これまでに我々は,空間フィルタ生成器と識別器のネットワークを連結し,同時最適化するというアプローチを検討している.このアプローチの狙いは,注目すべき音がどんな音なのかを自動的に学習し,またそれを強調するための空間フィルタを自動的に生成することにあり,学習の際には目的音の方向や教師信号といった事前情報を一切必要としない.本稿では,MVDR(MinimumVariance Distortionless Response)ビームフォーマのアイデアを取り入れた損失関数を提案し,実験によってその有効性を検証する., Recently, acoustic scene classification using a beamformer with multi-channel signals as input has been proposed. Generally, prior information such as the direction of arrival of the target sound is necessary to generate the spatial filter of the beamformer. However, it is difficult to apply a beamformer as a pre-processing method because it is not obvious what kind of sound is of interest in a particular acoustic scene and in which direction the sound is located. We have devised an approach in which the networks of a spatial filter generator and classifier are concatenated and simultaneously optimized. The goal of this approach is to automatically learn what sounds to be focused on and automatically generate spatial filters to emphasize them, without requiring any prior information such as the direction of arrival of the target sound or a reference signal. This paper proposes a loss function that incorporates the idea of the MVDR (Minimum Variance Distortionless Response) beamformer and verifies its effectiveness through experiments.},
 title = {音響シーン識別のための注目すべき音を自動検出するニューラルビームフォーマの検討},
 year = {2022}
}