ログイン 新規登録
言語:

WEKO3

  • トップ
  • ランキング
To
lat lon distance
To

Field does not validate



インデックスリンク

インデックスツリー

メールアドレスを入力してください。

WEKO

One fine body…

WEKO

One fine body…

アイテム

  1. 研究報告
  2. 音声言語情報処理(SLP)
  3. 2012
  4. 2012-SLP-93

非負値行列因子分解に基づき動的適応した<i>n</i>-gram言語モデルによるパープレキシティ削減効果の分析

https://ipsj.ixsq.nii.ac.jp/records/86125
https://ipsj.ixsq.nii.ac.jp/records/86125
1a5131ab-220b-4e74-b84e-faa36946617c
名前 / ファイル ライセンス アクション
IPSJ-SLP12093002.pdf IPSJ-SLP12093002.pdf (1.3 MB)
Copyright (c) 2012 by the Information Processing Society of Japan
オープンアクセス
Item type SIG Technical Reports(1)
公開日 2012-10-19
タイトル
タイトル 非負値行列因子分解に基づき動的適応した<i>n</i>-gram言語モデルによるパープレキシティ削減効果の分析
タイトル
言語 en
タイトル Analysis of dynamically adapted <i>n</i>-gram language models based on NMF
言語
言語 jpn
資源タイプ
資源タイプ識別子 http://purl.org/coar/resource_type/c_18gh
資源タイプ technical report
著者所属
NHK放送技術研究所
著者所属
NHK放送技術研究所
著者所属
NHK放送技術研究所
著者所属
NHK放送技術研究所
著者所属(英)
en
NHK Science and Technology Research Laboratories
著者所属(英)
en
NHK Science and Technology Research Laboratories
著者所属(英)
en
NHK Science and Technology Research Laboratories
著者所属(英)
en
NHK Science and Technology Research Laboratories
著者名 藤田, 悠哉 奥, 貴裕 小林, 彰夫 佐藤, 庄衛

× 藤田, 悠哉 奥, 貴裕 小林, 彰夫 佐藤, 庄衛

藤田, 悠哉
奥, 貴裕
小林, 彰夫
佐藤, 庄衛

Search repository
著者名(英) Fujita, Yuya Oku, Takahiro Kobayashi, Akio Sato, Shoei

× Fujita, Yuya Oku, Takahiro Kobayashi, Akio Sato, Shoei

en Fujita, Yuya
Oku, Takahiro
Kobayashi, Akio
Sato, Shoei

Search repository
論文抄録
内容記述タイプ Other
内容記述 情報番組のリスピーク音声の認識率改善のための,言語モデル適応手法について検討している.情報番組では複数の曖昧かつ細かい話題が遷移することから,確率的潜在話題解析 (pLSA) を拡張して, K 単語連鎖生起確率分布に対して非負値行列因子分解 (NMF) を用いて潜在話題解析を行い,認識結果テキストを利用して言語モデルを動的に適応する手法を提案している.本報告では,パープレキシティによる評価実験を行い,提案法の効果を分析した. K = 2 として動的適応した 2-gram 言語モデルで算出したパープレキシティを,ユニグラム・スケーリングにより適応した 2-gram 言語モデルで算出した値と比較した.実験結果から,評価テキストの種類により効果に差があるが,一定の条件下ではユニグラム・スケーリングと同等以上の性能が得られることが分かった.また,オラクルとの比較により,提案法は基底数の増加と共に過適応に陥る場合があるが,適応に用いる単語履歴長を長くすることである程度回避可能なことがわかった.
論文抄録(英)
内容記述タイプ Other
内容記述 For the purpose of improving WERs of re-speaked speech of a talk and variety show of TV, we have been studying a method of language model adaptation. Inside a program we are considering, there are many ambiguous topics and they transit as the program goes. In order to tackle such situation, we are proposing a method that extended pLSA by dealing probabilities of K-consecutive words generation with non-negative matrix factorization(NMF). Using past recognition results as adaptation text, we adapt the language model dynamically aiming to capture the transition of ambiguous topic within a program. In this paper, we analyzed experimental results that simulated speech recognition by testset perplexity of evaluation text. We set K = 2, and adapted 2-gram language model by past H-words history before the evaluating sentence, then calculated perplexity. The results showed that the effectiveness of proposed method varied depending on the type of evaluation text, but under some conditions proposed method yield equal or superior results compared to unigram scaling method. And by comparing the oracle, when we set a large value for the number of basis vector, proposed method tend to suffer overfitting. But by extending the length of word history used for adaptation, overfitting could be eased.
書誌レコードID
収録物識別子タイプ NCID
収録物識別子 AN10442647
書誌情報 研究報告音声言語情報処理(SLP)

巻 2012-SLP-93, 号 2, p. 1-8, 発行日 2012-10-19
Notice
SIG Technical Reports are nonrefereed and hence may later appear in any journals, conferences, symposia, etc.
出版者
言語 ja
出版者 情報処理学会
戻る
0
views
See details
Views

Versions

Ver.1 2025-01-21 17:48:40.269771
Show All versions

Share

Mendeley Twitter Facebook Print Addthis

Cite as

エクスポート

OAI-PMH
  • OAI-PMH JPCOAR
  • OAI-PMH DublinCore
  • OAI-PMH DDI
Other Formats
  • JSON
  • BIBTEX

Confirm


Powered by WEKO3


Powered by WEKO3