@article{oai:ipsj.ixsq.nii.ac.jp:00187415, author = {松廣, 達也 and 橋本, 哲也 and 北岡, 見生代 and ア, デイビッド and 落合, 翼 and 渡辺, 秀行 and 片桐, 滋 and 大崎, 美穂 and Tatsuya, Matsuhiro and Tetsuya, Hashimoto and Mikiyo, Kitaoka and David, Ha and Tsubasa, Ochiai and Hideyuki, Watanabe and Shigeru, Katagiri and Miho, Ohsaki}, issue = {4}, journal = {情報処理学会論文誌}, month = {Apr}, note = {最近,識別学習法の1つ,最小分類誤り(MCE: Minimum Classification Error)学習法が,大幾何マージン最小分類誤り(LGM-MCE: Large Geometric Margin Minimum Classification Error)学習法に拡張された.LGM-MCE法は,利用可能な学習用標本上の分類誤り数損失の最小化と,標本空間における幾何マージンの最大化とを同時に行うものである.学習用標本に対する過学習を抑制することで,この新しいLGM-MCE法は,理想的な最小分類誤り確率状態に対応する分類器状態を近似する.その有効性は,プロトタイプ型分類器用に実装され,様々な固定次元ベクトルパターンの分類課題において実証されている.本稿は,可変長パターンに対しても過学習が抑制された望ましい分類が実現されることを目指し,状態遷移モデル型分類器を用いて可変長パターンのための幾何マージンを新たに導出し,それを用いたLGM-MCE学習法を構築し,その有効性を3種の音声認識課題において評価した結果を報告するものである.実験では,LGM-MCE学習法と,その基盤となったMCE学習法とを比較する.実験の結果,いずれの課題においても,LGM-MCE学習法が,過学習を抑制し,未知の試験用標本上で高い分類精度を達成することが示される.比較実験に用いるLGM-MCE学習法の実装は,適応型損失最小化手段である確率的降下法を用いている.本稿では追加的に,高速な並列処理に適したRPROP法に基づく実装も行い,その動作確認結果も報告する., Recently, one of the latest discriminative training methods, Minimum Classification Error (MCE) training, was extended to Large Geometric Margin MCE (LGM-MCE) training. This new version of MCE training, LGM-MCE training, simultaneously maximizes the geometric margin in the sample space as well as minimizes the classification error count loss over the training samples in hand. It is expected to effectively approximate an optimal classifier status, which corresponds to the desirable, minimum classification error probability condition, by suppressing overlearning. So far, the LGM-MCE training method has been implemented for prototype-based classifiers, and its effectiveness was demonstrated in various fixed-dimension pattern classification tasks. In this paper, to achieve the ideal overlearning-suppressed classification for variable-length patterns, we newly define a new LGM-MCE training procedure for the state-transition-model-based classifier, and evaluate its effect in three speech pattern classification tasks. In experiments, we compare LGM-MCE training and its baseline, MCE training, and show that LGM-MCE training successfully suppresses overlearning and surpasses MCE training in classification accuracy over unknown testing patterns. The LGM-MCE training implementation used in experiments adopts an adaptive Probabilistic-Descent-method-based loss minimization procedure. In the paper, we also introduce an alternative RPROP-method-based implementation, which will be useful for fast parallel run of loss minimization.}, pages = {1295--1308}, title = {可変長時系列パターン分類のための大幾何マージン最小分類誤り学習法の提案とその実験的評価}, volume = {59}, year = {2018} }