WEKO3
アイテム
頑健なパラメタ推定のための Aggregated EM 法の提案と評価
https://ipsj.ixsq.nii.ac.jp/records/56792
https://ipsj.ixsq.nii.ac.jp/records/567927b5e9f8e-3be4-403f-ae5a-b75b3874b7f7
| 名前 / ファイル | ライセンス | アクション |
|---|---|---|
|
|
Copyright (c) 2007 by the Information Processing Society of Japan
|
|
| オープンアクセス | ||
| Item type | SIG Technical Reports(1) | |||||||
|---|---|---|---|---|---|---|---|---|
| 公開日 | 2007-12-21 | |||||||
| タイトル | ||||||||
| タイトル | 頑健なパラメタ推定のための Aggregated EM 法の提案と評価 | |||||||
| タイトル | ||||||||
| 言語 | en | |||||||
| タイトル | Aggregated EM Algorithm for Robust Parameter Estimation | |||||||
| 言語 | ||||||||
| 言語 | jpn | |||||||
| 資源タイプ | ||||||||
| 資源タイプ識別子 | http://purl.org/coar/resource_type/c_18gh | |||||||
| 資源タイプ | technical report | |||||||
| 著者所属 | ||||||||
| 東京工業大学情報理工学研究科計算工学専攻 | ||||||||
| 著者所属 | ||||||||
| Department of Electrical Engineering University of Washington | ||||||||
| 著者所属 | ||||||||
| 京都大学学術情報メディアセンター | ||||||||
| 著者所属(英) | ||||||||
| en | ||||||||
| Department of Computer Science, Tokyo Institute of Technology | ||||||||
| 著者所属(英) | ||||||||
| en | ||||||||
| Department of Electrical Engineering, University of Washington | ||||||||
| 著者所属(英) | ||||||||
| en | ||||||||
| Academic Center for Computing and Media Studies, Kyoto University | ||||||||
| 著者名 |
篠崎, 隆宏
OstendorfMari
河原, 達也
× 篠崎, 隆宏 OstendorfMari 河原, 達也
|
|||||||
| 著者名(英) |
Takahiro, SHINOZAKI
Mari, OSTENDORF
Tatsuya, KAWAHARA
× Takahiro, SHINOZAKI Mari, OSTENDORF Tatsuya, KAWAHARA
|
|||||||
| 論文抄録 | ||||||||
| 内容記述タイプ | Other | |||||||
| 内容記述 | EM アルゴリズムの欠点である過学習の問題を補い、高い汎化能力を持つ学習アルゴリズムとして Aggregated EM 法の提案を行う。従来の EM アルゴリズムが学習ループ中で学習データ全体を用いた単一モデルの推定と尤度の評価を繰り返すのに対して、提案法では学習の各ステージにおいて Bagging と同様に学習セットの部分集合から複数のモデルを推定しそれらの結果を統合することで学習性能の向上を図る。提案手法は区分化した学習セットの各区画に対して求めた十分統計量を活用することで、効率的に動作する。人工的なデータを用いた混合ガウス分布の学習実験により、提案法が従来の EM アルゴリズムと比較して過学習に対して頑健であることを示す。また、中国語放送音声および日本語話し言葉音声を用いた大語彙連続音声認識実験により、提案手法が EM 学習と比較してより多くのパラメタを有効に活用し、単語誤り率の削減に有効であることを示す。 | |||||||
| 論文抄録(英) | ||||||||
| 内容記述タイプ | Other | |||||||
| 内容記述 | We propose aggregated EM algorithm that compensates for weaknesses of the EM algorithm by introducing bagging-like approach to estimate likelihood in the training iterations to avoid overtraining. The algorithm consists of E-step and M-step as EM and the multiple models used for the bagging-like operation are efficiently estimated by using a set of sufficient statistics associated with a partitioning of the training data. Analyses using a GMM with artificial data show the proposed algorithm is more robust for overtraining than the conventional EM algorithm. Large vocabulary recognition experiments on Mandarin broadcast news data and Japanese spontaneous speech data show that the method makes better use of more parameters and gives lower recognition error rates than EM training. | |||||||
| 書誌レコードID | ||||||||
| 収録物識別子タイプ | NCID | |||||||
| 収録物識別子 | AN10442647 | |||||||
| 書誌情報 |
情報処理学会研究報告音声言語情報処理(SLP) 巻 2007, 号 129(2007-SLP-069), p. 223-228, 発行日 2007-12-21 |
|||||||
| Notice | ||||||||
| SIG Technical Reports are nonrefereed and hence may later appear in any journals, conferences, symposia, etc. | ||||||||
| 出版者 | ||||||||
| 言語 | ja | |||||||
| 出版者 | 情報処理学会 | |||||||