@techreport{oai:ipsj.ixsq.nii.ac.jp:00086125,
 author = {藤田, 悠哉 and 奥, 貴裕 and 小林, 彰夫 and 佐藤, 庄衛 and Fujita, Yuya and Oku, Takahiro and Kobayashi, Akio and Sato, Shoei},
 issue = {2},
 month = {Oct},
 note = {情報番組のリスピーク音声の認識率改善のための,言語モデル適応手法について検討している.情報番組では複数の曖昧かつ細かい話題が遷移することから,確率的潜在話題解析 (pLSA) を拡張して, K 単語連鎖生起確率分布に対して非負値行列因子分解 (NMF) を用いて潜在話題解析を行い,認識結果テキストを利用して言語モデルを動的に適応する手法を提案している.本報告では,パープレキシティによる評価実験を行い,提案法の効果を分析した. K = 2 として動的適応した 2-gram 言語モデルで算出したパープレキシティを,ユニグラム・スケーリングにより適応した 2-gram 言語モデルで算出した値と比較した.実験結果から,評価テキストの種類により効果に差があるが,一定の条件下ではユニグラム・スケーリングと同等以上の性能が得られることが分かった.また,オラクルとの比較により,提案法は基底数の増加と共に過適応に陥る場合があるが,適応に用いる単語履歴長を長くすることである程度回避可能なことがわかった., For the purpose of improving WERs of re-speaked speech of a talk and variety show of TV, we have been studying a method of language model adaptation. Inside a program we are considering, there are many ambiguous topics and they transit as the program goes. In order to tackle such situation, we are proposing a method that extended pLSA by dealing probabilities of K-consecutive words generation with non-negative matrix factorization(NMF). Using past recognition results as adaptation text, we adapt the language model dynamically aiming to capture the transition of ambiguous topic within a program. In this paper, we analyzed experimental results that simulated speech recognition by testset perplexity of evaluation text. We set K = 2, and adapted 2-gram language model by past H-words history before the evaluating sentence, then calculated perplexity. The results showed that the effectiveness of proposed method varied depending on the type of evaluation text, but under some conditions proposed method yield equal or superior results compared to unigram scaling method. And by comparing the oracle, when we set a large value for the number of basis vector, proposed method tend to suffer overfitting. But by extending the length of word history used for adaptation, overfitting could be eased.},
 title = {非負値行列因子分解に基づき動的適応した<i>n</i>-gram言語モデルによるパープレキシティ削減効果の分析},
 year = {2012}
}