@techreport{oai:ipsj.ixsq.nii.ac.jp:00069914, author = {Graham, NEUBIG and 三村, 正人 and 森, 信介 and 河原, 達也 and Graham, Neubig and Masato, Mimura and Shinsuke, Mori and Tatsuya, Kawahara}, issue = {16}, month = {Jul}, note = {本稿ではテキストを用いず,連続音声のみから言語モデルを学習する方法を提案する.音響モデルのみを用いて作成された音素ラティスに対して推論を行い,単語境界と言語モデルを同時に学習する.具体的には,ノンパラメトリックベイズ法に基づく階層的 Pitman-Yor 言語モデルを利用し,パラメータは WFST に基づいたギブスサンプリングで推定する.会議音声を用いた実験において,提案手法によって学習された言語モデルはパープレキシティ及び音声認識の音素誤り率を有意に改善することができた.さらに,ラティス処理と単語単位の獲得が誤り率の改善に貢献していることがわかった., This paper proposes a technique for learning a language model directly from continuous speech, without the use of text. Inference is performed over phoneme lattices generated using only acoustic model scores, and word boundaries and a language model are learned simultaneously. A Bayesian non-parametric Hierarchical Pitman-Yor language model is used, and parameters are estimated with WFST-based Gibbs sampling. An experiment was performed using meeting speech, and language models built using the proposed techniques were able to significantly lower ASR phoneme error rates. In addition, lattice processing and word boundary discovery were shown to contribute significantly to this improvement.}, title = {ベイズ推論を用いた連続音声からの言語モデル学習}, year = {2010} }