Item type |
SIG Technical Reports(1) |
公開日 |
2024-02-22 |
タイトル |
|
|
タイトル |
多言語SSLモデルに基づく音声認識のノンパラレルコーパスのみを用いたドメイン適応 |
タイトル |
|
|
言語 |
en |
|
タイトル |
Domain adaptation of speech recognition model based on multilingual SSL model using only nonparallel corpus. |
言語 |
|
|
言語 |
jpn |
キーワード |
|
|
主題Scheme |
Other |
|
主題 |
ポスターセッション2 SP/SLP |
資源タイプ |
|
|
資源タイプ識別子 |
http://purl.org/coar/resource_type/c_18gh |
|
資源タイプ |
technical report |
著者所属 |
|
|
|
豊橋技術科学大学 |
著者所属 |
|
|
|
日本電信電話株式会社 |
著者所属 |
|
|
|
豊橋技術科学大学 |
著者所属 |
|
|
|
阿南工業高等専門学校 |
著者所属 |
|
|
|
豊橋技術科学大学 |
著者所属(英) |
|
|
|
en |
|
|
Toyohashi University of Technology |
著者所属(英) |
|
|
|
en |
|
|
NIPPON TELEGRAPH AND TELEPHONE CORPORATION |
著者所属(英) |
|
|
|
en |
|
|
Toyohashi University of Technology |
著者所属(英) |
|
|
|
en |
|
|
National Institute of Technology, Anan College |
著者所属(英) |
|
|
|
en |
|
|
Toyohashi University of Technology |
著者名 |
木内, 貴浩
小川, 厚徳
若林, 佑幸
太田, 健吾
北岡, 教英
|
著者名(英) |
Takahiro, Kinouchi
Atsunori, Ogawa
Yukoh, Wakabayashi
Kengo, Ohta
Norihide, Kitaoka
|
論文抄録 |
|
|
内容記述タイプ |
Other |
|
内容記述 |
音声認識(automatic speech recognition: ASR)は様々なサービスや事業で活用されており,それらの各ドメインの音声の認識精度は,そのドメインにおける音声データ量に依存することが知られている.一般的には,目標ドメインの大量の音声データとその書き起こしテキストデータで ASR モデルを学習することが望ましいが,音声とその書き起こしテキストのペアデータを構築するのは非常に高コストである.そこで我々は,音声のみ,もしくはテキストのみであれば比較的低コストで収集可能であることに着目する.この条件のもと,本研究では自己教師あり学習 (self-supervised learning: SSL) モデルを基にした音声のみを用いたドメイン適応と,言語モデル統合によるテキストのみを用いたドメイン適応の2つのアプローチによって音声認識モデルを目標ドメインへ適応することを実現する.実験の結果,英語音声で事前学習された SSL モデルを用いた場合,9.2 pts のCER の低下が見られ,多言語音声で事前学習された SSL モデルを用いた場合,5.3 pts の CER の低下が見られ,精度が向上した. |
論文抄録(英) |
|
|
内容記述タイプ |
Other |
|
内容記述 |
Automatic speech recognition (ASR) models are used in various services and businesses, and each domain’s recognition accuracy depends on the amount of speech data in that domain. Generally, it is desirable to train an ASR model with a large amount of target-domain speech data and its transcribed text data. However, it is high cost to construct these data. Therefore, we focus on collecting only speech or text data with low cost. Under these conditions, we use two approaches: domain adaptation using only speech data based on a self-supervised learning (SSL) model and domain adaptation using only text data based on language model fusion. In the experiment, the CER improved by 9.2 pts when using the SSL model pre-trained on English speech and by 5.3 pts when using the SSL model pre-trained on multilingual speech. |
書誌レコードID |
|
|
収録物識別子タイプ |
NCID |
|
収録物識別子 |
AN10442647 |
書誌情報 |
研究報告音声言語情報処理(SLP)
巻 2024-SLP-151,
号 54,
p. 1-6,
発行日 2024-02-22
|
ISSN |
|
|
収録物識別子タイプ |
ISSN |
|
収録物識別子 |
2188-8663 |
Notice |
|
|
|
SIG Technical Reports are nonrefereed and hence may later appear in any journals, conferences, symposia, etc. |
出版者 |
|
|
言語 |
ja |
|
出版者 |
情報処理学会 |