WEKO3
アイテム
大語彙連続音声認識における連鎖語の追加による語彙拡大の効果
https://ipsj.ixsq.nii.ac.jp/records/12702
https://ipsj.ixsq.nii.ac.jp/records/127024f1504db-f835-49bc-80fe-f2b1f8402808
名前 / ファイル | ライセンス | アクション |
---|---|---|
![]() |
Copyright (c) 1999 by the Information Processing Society of Japan
|
|
オープンアクセス |
Item type | Journal(1) | |||||||
---|---|---|---|---|---|---|---|---|
公開日 | 1999-04-15 | |||||||
タイトル | ||||||||
タイトル | 大語彙連続音声認識における連鎖語の追加による語彙拡大の効果 | |||||||
タイトル | ||||||||
言語 | en | |||||||
タイトル | Effect of Vocabulary Extension using Word Sequence Concatenation for Large Vocabulary Continuous Speech Recognition | |||||||
言語 | ||||||||
言語 | jpn | |||||||
キーワード | ||||||||
主題Scheme | Other | |||||||
主題 | 特集:音声言語情報処理 | |||||||
資源タイプ | ||||||||
資源タイプ識別子 | http://purl.org/coar/resource_type/c_6501 | |||||||
資源タイプ | journal article | |||||||
その他タイトル | ||||||||
その他のタイトル | 音声認識用言語モデル | |||||||
著者所属 | ||||||||
早稲田大学理工学部 | ||||||||
著者所属 | ||||||||
早稲田大学理工学部 | ||||||||
著者所属 | ||||||||
早稲田大学理工学部 | ||||||||
著者所属 | ||||||||
早稲田大学理工学部 | ||||||||
著者所属(英) | ||||||||
en | ||||||||
School of Science and Engineering, Waseda University | ||||||||
著者所属(英) | ||||||||
en | ||||||||
School of Science and Engineering, Waseda University | ||||||||
著者所属(英) | ||||||||
en | ||||||||
School of Science and Engineering, Waseda University | ||||||||
著者所属(英) | ||||||||
en | ||||||||
School of Science and Engineering, Waseda University | ||||||||
著者名 |
和田, 陽介
× 和田, 陽介
|
|||||||
著者名(英) |
Yosuke, Wada
× Yosuke, Wada
|
|||||||
論文抄録 | ||||||||
内容記述タイプ | Other | |||||||
内容記述 | 大語彙連続音声認識において 形態素連鎖を単語として追加登録することによりどの程度性能が向上するか および 追加する形態素連鎖を選ぶ価値基準の違いが性能に与える影響について検討した. 連鎖語の選定基準としては 高頻度の形態素連鎖を選定する方法 エントロピーの減少に貢献する形態素連鎖を選定する方法 延べ単語数の減少に貢献する形態素連鎖を選定する方法 の3つを試みた. 毎日新聞のテキストコーパスとJNAS音声データベースを用いて テストセットパープレキシティおよび連続音声認識実験における単語誤り率を評価した. どの手法を用いても追加連鎖語数を増加させるにつれて性能は向上したが 選択手法による顕著な差は見られず 性能向上のためには選択手法よりは選択語数が主要因となることが分かった. バイグラム言語モデルを用いるとき 連鎖語の語彙追加により テストセットパープレキシティは最高で33%減少し 連続音声認識実験における単語誤り率は21%減少した. また トライグラム言語モデルを用いるとき テストセットパープレキシティ 単語誤り率ともに最高で19%減少した. | |||||||
論文抄録(英) | ||||||||
内容記述タイプ | Other | |||||||
内容記述 | Vocabulary extension is utilized to improve the language model for large vocabulary continuous speech recognition (LVCSR). In this method, we make new words by concatenating some morpheme sequences and add them to the vocabulary. We tested three methods of extension: frequency-based extension, entropy-based extension and total-word-number-based extension. We tested their effects in terms of perplexity and recognition accuracy using Mainichi newspaper articles and JNAS speech corpus. As the results, all three methods contributed to improve the performance. There were no significant difference among these three methods. The size of the extended vocabulary was the primal factor for the performance. In case of bigram-based experiments, the best results gave 33% reduction of perplexity and 21% reduction of the word error rate. As for the trigram-based experiments, the best results gave 19% reduction of perplexity and also or word error rate. | |||||||
書誌レコードID | ||||||||
収録物識別子タイプ | NCID | |||||||
収録物識別子 | AN00116647 | |||||||
書誌情報 |
情報処理学会論文誌 巻 40, 号 4, p. 1413-1420, 発行日 1999-04-15 |
|||||||
ISSN | ||||||||
収録物識別子タイプ | ISSN | |||||||
収録物識別子 | 1882-7764 |