2024-03-29T23:34:54Zhttps://ipsj.ixsq.nii.ac.jp/ej/?action=repository_oaipmhoai:ipsj.ixsq.nii.ac.jp:001594612024-03-29T05:26:34Z01164:04179:08454:08706
無限木構造隠れMarkovモデルによる階層的品詞の教師なし学習The Infinite Tree Hidden Markov Model for Unsupervised Hierarchical Part-of-speech Inductionjpn言語解析http://id.nii.ac.jp/1001/00159427/Technical Reporthttps://ipsj.ixsq.nii.ac.jp/ej/?action=repository_action_common_download&item_id=159461&item_no=1&attribute_id=1&file_no=1Copyright (c) 2016 by the Information Processing Society of Japan統計数理研究所数理・推論研究系奈良先端科学技術大学院大学情報科学研究科持橋, 大地能地, 宏隠れ Markov モデル (HMM) は情報科学の基本的なモデルであるが,たとえば自然言語の品詞にみられるような階層的な状態を学習できないという問題があった.本論文ではこれに対し,木構造 Stick-breaking 過程 (Adams+ 2010) をそれ自体階層化することで,無限の深さと幅を持つ隠れた木構造上での状態遷移確率と階層的な出力確率を持つ無限木構造隠れ Markov モデル (iTHMM) を提案する.これにより,原理的に無限の複雑度を持つ隠れた木から,データに合わせた適切な状態の階層を学習することが可能となる.英語および日本語のテキストで実験を行った.提案法は自然言語処理に限らず,情報科学一般に適用できる隠れ Markov モデルの本質的な拡張であり,PCFG など隠れ状態を持つ多くのモデルへの適用が期待できる.Hidden Markov models (HMM) is widely used in statistics and machine learning. However, it cannot learn latent states where these states are actually structured. Extending the tree-structured stick-breaking processes (Adams+ 2010) hierarchically as from DP to HDP, this paper proposes an Infinite Tree Hidden Markov models (iTHMM) whose states constitute a latent hierarchy. Experimental results on natural language texts show the validity of the proposed algorithm.AN10115061研究報告自然言語処理(NL)2016-NL-226121112016-05-092188-87792016-04-27