ログイン 新規登録
言語:

WEKO3

  • トップ
  • ランキング


インデックスリンク

インデックスツリー

  • RootNode

メールアドレスを入力してください。

WEKO

One fine body…

WEKO

One fine body…

アイテム

  1. 論文誌(トランザクション)
  2. 数理モデル化と応用(TOM)
  3. Vol.5
  4. No.3

Pitman-Yor過程に基づく確率的木挿入文法モデル

https://ipsj.ixsq.nii.ac.jp/records/85835
https://ipsj.ixsq.nii.ac.jp/records/85835
8954aace-8f57-4ca5-a48e-b7c0ffe516fe
名前 / ファイル ライセンス アクション
IPSJ-TOM0503011.pdf IPSJ-TOM0503011.pdf (546.7 kB)
Copyright (c) 2012 by the Information Processing Society of Japan
オープンアクセス
Item type Trans(1)
公開日 2012-09-28
タイトル
タイトル Pitman-Yor過程に基づく確率的木挿入文法モデル
タイトル
言語 en
タイトル A Probabilistic Model of Tree Insertion Grammars Based on Pitman-Yor Processes
言語
言語 jpn
キーワード
主題Scheme Other
主題 [オリジナル論文] 木挿入文法,Pitman-Yor過程,構文解析
資源タイプ
資源タイプ識別子 http://purl.org/coar/resource_type/c_6501
資源タイプ journal article
著者所属
NTTコミュニケーション科学基礎研究所
著者所属
NTTコミュニケーション科学基礎研究所
著者所属
NTTコミュニケーション科学基礎研究所
著者所属(英)
en
NTT Communication Science Laboratories
著者所属(英)
en
NTT Communication Science Laboratories
著者所属(英)
en
NTT Communication Science Laboratories
著者名 進藤, 裕之 藤野, 昭典 永田, 昌明

× 進藤, 裕之 藤野, 昭典 永田, 昌明

進藤, 裕之
藤野, 昭典
永田, 昌明

Search repository
著者名(英) Hiroyuki, Shindo Akinori, Fujino Masaaki, Nagata

× Hiroyuki, Shindo Akinori, Fujino Masaaki, Nagata

en Hiroyuki, Shindo
Akinori, Fujino
Masaaki, Nagata

Search repository
論文抄録
内容記述タイプ Other
内容記述 Pitman-Yor 過程に基づく木挿入文法の確率モデルを提案する.提案モデルとマルコフ連鎖モンテカルロ法を組み合わせることで,発見的な手法に頼ることなく,構文木コーパスから木挿入文法の統計的な学習が可能となる.木挿入文法は,部分木の挿入操作により少数の規則で様々な構文パターンを表現できる一方で,統計的な学習には高い計算コストを要する.そこで,挿入操作を含む文法モデルを等価な文脈自由文法へ変換し,効率的に確率モデルの学習ができることを示す.提案手法を用いて構文解析の実験を行ったところ,比較的少量の学習用データでは文脈自由文法や木置換文法と比較して解析精度の向上を実現した.また,学習用データの規模が大きいときは,提案モデルは木置換文法のモデルと比較して約 20% コンパクトでありながら,ほぼ同等の構文解析結果を達成した.
論文抄録(英)
内容記述タイプ Other
内容記述 We propose a probabilistic model of Tree Insertion Grammars (TIG) based on the Pitman-Yor process. Instead of relying on heuristic rules to extract grammars, our model and Markov Chain Monte Carlo (MCMC) method automatically learns TIG rules from treebank data. Tree insertion is helpful for modeling syntax patterns accurately with compact grammar rules, however, it suffers from high computational cost for statistical learning. In this paper, we propose an efficient method for learning TIG by mapping our model to context-free grammars (CFG). The experimental parsing results show that our model outperforms a standard CFG and Tree Substitution Grammars (TSG) for a small dataset. For a large dataset, our model obtains comparable results to the TSG, making the number of grammar rules approximately 20% smaller than with TSG.
書誌レコードID
収録物識別子タイプ NCID
収録物識別子 AA11464803
書誌情報 情報処理学会論文誌数理モデル化と応用(TOM)]

巻 5, 号 3, p. 95-106, 発行日 2012-09-28
ISSN
収録物識別子タイプ ISSN
収録物識別子 1882-7780
出版者
言語 ja
出版者 情報処理学会
戻る
0
views
See details
Views

Versions

Ver.1 2025-01-21 17:58:49.444392
Show All versions

Share

Mendeley Twitter Facebook Print Addthis

Cite as

エクスポート

OAI-PMH
  • OAI-PMH JPCOAR
  • OAI-PMH DublinCore
  • OAI-PMH DDI
Other Formats
  • JSON
  • BIBTEX

Confirm


Powered by WEKO3


Powered by WEKO3