ログイン 新規登録
言語:

WEKO3

  • トップ
  • ランキング
To
lat lon distance
To

Field does not validate



インデックスリンク

インデックスツリー

メールアドレスを入力してください。

WEKO

One fine body…

WEKO

One fine body…

アイテム

  1. 論文誌(ジャーナル)
  2. Vol.57
  3. No.2

識別的半マルコフモデルによるテキスト結束性を考慮した単一文書要約

https://ipsj.ixsq.nii.ac.jp/records/148218
https://ipsj.ixsq.nii.ac.jp/records/148218
b17a0026-9808-4dd9-82eb-afcafbe8c2d5
名前 / ファイル ライセンス アクション
IPSJ-JNL5702045.pdf IPSJ-JNL5702045.pdf (733.1 kB)
Copyright (c) 2016 by the Information Processing Society of Japan
オープンアクセス
Item type Journal(1)
公開日 2016-02-15
タイトル
タイトル 識別的半マルコフモデルによるテキスト結束性を考慮した単一文書要約
タイトル
言語 en
タイトル Learning to Generate Cohesive Summary with Discriminative Hidden Semi-Markov Model
言語
言語 jpn
キーワード
主題Scheme Other
主題 [一般論文(特選論文)] 自動要約,単一文書要約,隠れ半マルコフモデル
資源タイプ
資源タイプ識別子 http://purl.org/coar/resource_type/c_6501
資源タイプ journal article
著者所属
日本電信電話株式会社/現在,東京工業大学大学院情報理工学研究科計算工学専攻
著者所属
日本電信電話株式会社
著者所属
日本電信電話株式会社
著者所属
日本電信電話株式会社
著者所属
日本電信電話株式会社
著者所属
日本電信電話株式会社
著者所属(英)
en
Nippon Telegraph and Telephone Corporation / Presently with Department of Computer Science, Graduate School of Information Science and Engineering, Tokyo Institute of Technology
著者所属(英)
en
Nippon Telegraph and Telephone Corporation
著者所属(英)
en
Nippon Telegraph and Telephone Corporation
著者所属(英)
en
Nippon Telegraph and Telephone Corporation
著者所属(英)
en
Nippon Telegraph and Telephone Corporation
著者所属(英)
en
Nippon Telegraph and Telephone Corporation
著者名 西川, 仁

× 西川, 仁

西川, 仁

Search repository
有田, 一穂

× 有田, 一穂

有田, 一穂

Search repository
田中, 克己

× 田中, 克己

田中, 克己

Search repository
平尾, 努

× 平尾, 努

平尾, 努

Search repository
牧野, 俊朗

× 牧野, 俊朗

牧野, 俊朗

Search repository
松尾, 義博

× 松尾, 義博

松尾, 義博

Search repository
著者名(英) Hitoshi, Nishikawa

× Hitoshi, Nishikawa

en Hitoshi, Nishikawa

Search repository
Kazuho, Arita

× Kazuho, Arita

en Kazuho, Arita

Search repository
Katsumi, Tanaka

× Katsumi, Tanaka

en Katsumi, Tanaka

Search repository
Tsutomu, Hirao

× Tsutomu, Hirao

en Tsutomu, Hirao

Search repository
Toshiro, Makino

× Toshiro, Makino

en Toshiro, Makino

Search repository
Yoshihiro, Matsuo

× Yoshihiro, Matsuo

en Yoshihiro, Matsuo

Search repository
論文抄録
内容記述タイプ Other
内容記述 本論文では,隠れ半マルコフモデルによる単一文書要約手法を提案する.我々は,単一文書要約を,長さに関する制約の下で,所与の目的関数を最大化する文の系列を,入力文書から得た文集合から探索する問題と見なす.提案する手法は文を選択する際に文間の結束性を考慮することができ,さらに文短縮を組み込むこともできる.提案手法の有効性を評価するため,我々は12,748組もの文書とその参照要約からなる大規模な単一文書要約コーパスを用意した.提案手法は他のベースラインの多くをROUGEおよび言語的品質による評価において上回った.提案手法によって生成された要約の約20%が人間が作成した参照要約と完全に同一であった.また,大規模な単一文書要約コーパスが要約器の訓練に際して重要であることも明らかにした.
論文抄録(英)
内容記述タイプ Other
内容記述 In this paper we introduce a novel single-document summarization method based on a hidden semi-Markov model. This method can naturally model single-document summarization as the optimization problem of selecting the best sequence from among the sentences in the input document under the given objective function and knapsack constraint. This advantage makes it possible for sentence selection to take the cohesion of the summary into account. In addition our method can also incorporate sentence compression into the summarization process. To demonstrate the effectiveness of our method, we conduct an experimental evaluation with a large-scale corpus consisting of 12,748 pairs of a document and its reference. The results show that our method significantly outperforms the competitive baselines in terms of ROUGE evaluation, and the linguistic quality of summaries is also improved. Our method successfully mimicked the reference summaries, about 20 percent of the summaries generated by our method were completely identical to their references. Moreover, we show that large-scale training samples are quite effective for training a summarizer.
書誌レコードID
収録物識別子タイプ NCID
収録物識別子 AN00116647
書誌情報 情報処理学会論文誌

巻 57, 号 2, p. 769-782, 発行日 2016-02-15
ISSN
収録物識別子タイプ ISSN
収録物識別子 1882-7764
戻る
0
views
See details
Views

Versions

Ver.1 2025-01-20 17:21:38.990589
Show All versions

Share

Mendeley Twitter Facebook Print Addthis

Cite as

エクスポート

OAI-PMH
  • OAI-PMH JPCOAR
  • OAI-PMH DublinCore
  • OAI-PMH DDI
Other Formats
  • JSON
  • BIBTEX

Confirm


Powered by WEKO3


Powered by WEKO3