ログイン 新規登録
言語:

WEKO3

  • トップ
  • ランキング


インデックスリンク

インデックスツリー

  • RootNode

メールアドレスを入力してください。

WEKO

One fine body…

WEKO

One fine body…

アイテム

  1. 論文誌(ジャーナル)
  2. Vol.59
  3. No.4

可変長時系列パターン分類のための大幾何マージン最小分類誤り学習法の提案とその実験的評価

https://ipsj.ixsq.nii.ac.jp/records/187415
https://ipsj.ixsq.nii.ac.jp/records/187415
4ff76ab0-f6d6-4995-84a0-8336aee2e61c
名前 / ファイル ライセンス アクション
IPSJ-JNL5904019.pdf IPSJ-JNL5904019.pdf (1.2 MB)
Copyright (c) 2018 by the Information Processing Society of Japan
オープンアクセス
Item type Journal(1)
公開日 2018-04-15
タイトル
タイトル 可変長時系列パターン分類のための大幾何マージン最小分類誤り学習法の提案とその実験的評価
タイトル
言語 en
タイトル Development and Experimental Ealuation of Large Geometric Margin Minimum Classification Error Training for Classification of Variable-length Time Series Patterns
言語
言語 jpn
キーワード
主題Scheme Other
主題 [一般論文(推薦論文)] 最小分類誤り学習法,確率的降下法,RPROP法
資源タイプ
資源タイプ識別子 http://purl.org/coar/resource_type/c_6501
資源タイプ journal article
著者所属
同志社大学
著者所属
同志社大学
著者所属
同志社大学
著者所属
同志社大学
著者所属
同志社大学
著者所属
株式会社国際電気通信基礎技術研究所
著者所属
同志社大学
著者所属
同志社大学
著者所属(英)
en
Doshisha University
著者所属(英)
en
Doshisha University
著者所属(英)
en
Doshisha University
著者所属(英)
en
Doshisha University
著者所属(英)
en
Doshisha University
著者所属(英)
en
Advanced Telecommunications Research Institute International
著者所属(英)
en
Doshisha University
著者所属(英)
en
Doshisha University
著者名 松廣, 達也

× 松廣, 達也

松廣, 達也

Search repository
橋本, 哲也

× 橋本, 哲也

橋本, 哲也

Search repository
北岡, 見生代

× 北岡, 見生代

北岡, 見生代

Search repository
ア, デイビッド

× ア, デイビッド

ア, デイビッド

Search repository
落合, 翼

× 落合, 翼

落合, 翼

Search repository
渡辺, 秀行

× 渡辺, 秀行

渡辺, 秀行

Search repository
片桐, 滋

× 片桐, 滋

片桐, 滋

Search repository
大崎, 美穂

× 大崎, 美穂

大崎, 美穂

Search repository
著者名(英) Tatsuya, Matsuhiro

× Tatsuya, Matsuhiro

en Tatsuya, Matsuhiro

Search repository
Tetsuya, Hashimoto

× Tetsuya, Hashimoto

en Tetsuya, Hashimoto

Search repository
Mikiyo, Kitaoka

× Mikiyo, Kitaoka

en Mikiyo, Kitaoka

Search repository
David, Ha

× David, Ha

en David, Ha

Search repository
Tsubasa, Ochiai

× Tsubasa, Ochiai

en Tsubasa, Ochiai

Search repository
Hideyuki, Watanabe

× Hideyuki, Watanabe

en Hideyuki, Watanabe

Search repository
Shigeru, Katagiri

× Shigeru, Katagiri

en Shigeru, Katagiri

Search repository
Miho, Ohsaki

× Miho, Ohsaki

en Miho, Ohsaki

Search repository
論文抄録
内容記述タイプ Other
内容記述 最近,識別学習法の1つ,最小分類誤り(MCE: Minimum Classification Error)学習法が,大幾何マージン最小分類誤り(LGM-MCE: Large Geometric Margin Minimum Classification Error)学習法に拡張された.LGM-MCE法は,利用可能な学習用標本上の分類誤り数損失の最小化と,標本空間における幾何マージンの最大化とを同時に行うものである.学習用標本に対する過学習を抑制することで,この新しいLGM-MCE法は,理想的な最小分類誤り確率状態に対応する分類器状態を近似する.その有効性は,プロトタイプ型分類器用に実装され,様々な固定次元ベクトルパターンの分類課題において実証されている.本稿は,可変長パターンに対しても過学習が抑制された望ましい分類が実現されることを目指し,状態遷移モデル型分類器を用いて可変長パターンのための幾何マージンを新たに導出し,それを用いたLGM-MCE学習法を構築し,その有効性を3種の音声認識課題において評価した結果を報告するものである.実験では,LGM-MCE学習法と,その基盤となったMCE学習法とを比較する.実験の結果,いずれの課題においても,LGM-MCE学習法が,過学習を抑制し,未知の試験用標本上で高い分類精度を達成することが示される.比較実験に用いるLGM-MCE学習法の実装は,適応型損失最小化手段である確率的降下法を用いている.本稿では追加的に,高速な並列処理に適したRPROP法に基づく実装も行い,その動作確認結果も報告する.
論文抄録(英)
内容記述タイプ Other
内容記述 Recently, one of the latest discriminative training methods, Minimum Classification Error (MCE) training, was extended to Large Geometric Margin MCE (LGM-MCE) training. This new version of MCE training, LGM-MCE training, simultaneously maximizes the geometric margin in the sample space as well as minimizes the classification error count loss over the training samples in hand. It is expected to effectively approximate an optimal classifier status, which corresponds to the desirable, minimum classification error probability condition, by suppressing overlearning. So far, the LGM-MCE training method has been implemented for prototype-based classifiers, and its effectiveness was demonstrated in various fixed-dimension pattern classification tasks. In this paper, to achieve the ideal overlearning-suppressed classification for variable-length patterns, we newly define a new LGM-MCE training procedure for the state-transition-model-based classifier, and evaluate its effect in three speech pattern classification tasks. In experiments, we compare LGM-MCE training and its baseline, MCE training, and show that LGM-MCE training successfully suppresses overlearning and surpasses MCE training in classification accuracy over unknown testing patterns. The LGM-MCE training implementation used in experiments adopts an adaptive Probabilistic-Descent-method-based loss minimization procedure. In the paper, we also introduce an alternative RPROP-method-based implementation, which will be useful for fast parallel run of loss minimization.
書誌レコードID
収録物識別子タイプ NCID
収録物識別子 AN00116647
書誌情報 情報処理学会論文誌

巻 59, 号 4, p. 1295-1308, 発行日 2018-04-15
ISSN
収録物識別子タイプ ISSN
収録物識別子 1882-7764
戻る
0
views
See details
Views

Versions

Ver.1 2025-01-20 02:17:07.290662
Show All versions

Share

Mendeley Twitter Facebook Print Addthis

Cite as

松廣, 達也, 橋本, 哲也, 北岡, 見生代, ア, デイビッド, 落合, 翼, 渡辺, 秀行, 片桐, 滋, 大崎, 美穂, 2018: 1295–1308 p.

Loading...

エクスポート

OAI-PMH
  • OAI-PMH JPCOAR
  • OAI-PMH DublinCore
  • OAI-PMH DDI
Other Formats
  • JSON
  • BIBTEX

Confirm


Powered by WEKO3


Powered by WEKO3