@techreport{oai:ipsj.ixsq.nii.ac.jp:00232524, author = {木内, 貴浩 and 小川, 厚徳 and 若林, 佑幸 and 太田, 健吾 and 北岡, 教英 and Takahiro, Kinouchi and Atsunori, Ogawa and Yukoh, Wakabayashi and Kengo, Ohta and Norihide, Kitaoka}, issue = {54}, month = {Feb}, note = {音声認識(automatic speech recognition: ASR)は様々なサービスや事業で活用されており,それらの各ドメインの音声の認識精度は,そのドメインにおける音声データ量に依存することが知られている.一般的には,目標ドメインの大量の音声データとその書き起こしテキストデータで ASR モデルを学習することが望ましいが,音声とその書き起こしテキストのペアデータを構築するのは非常に高コストである.そこで我々は,音声のみ,もしくはテキストのみであれば比較的低コストで収集可能であることに着目する.この条件のもと,本研究では自己教師あり学習 (self-supervised learning: SSL) モデルを基にした音声のみを用いたドメイン適応と,言語モデル統合によるテキストのみを用いたドメイン適応の2つのアプローチによって音声認識モデルを目標ドメインへ適応することを実現する.実験の結果,英語音声で事前学習された SSL モデルを用いた場合,9.2 pts のCER の低下が見られ,多言語音声で事前学習された SSL モデルを用いた場合,5.3 pts の CER の低下が見られ,精度が向上した., Automatic speech recognition (ASR) models are used in various services and businesses, and each domain’s recognition accuracy depends on the amount of speech data in that domain. Generally, it is desirable to train an ASR model with a large amount of target-domain speech data and its transcribed text data. However, it is high cost to construct these data. Therefore, we focus on collecting only speech or text data with low cost. Under these conditions, we use two approaches: domain adaptation using only speech data based on a self-supervised learning (SSL) model and domain adaptation using only text data based on language model fusion. In the experiment, the CER improved by 9.2 pts when using the SSL model pre-trained on English speech and by 5.3 pts when using the SSL model pre-trained on multilingual speech.}, title = {多言語SSLモデルに基づく音声認識のノンパラレルコーパスのみを用いたドメイン適応}, year = {2024} }