Item type |
Journal(1) |
公開日 |
2016-02-15 |
タイトル |
|
|
タイトル |
識別的半マルコフモデルによるテキスト結束性を考慮した単一文書要約 |
タイトル |
|
|
言語 |
en |
|
タイトル |
Learning to Generate Cohesive Summary with Discriminative Hidden Semi-Markov Model |
言語 |
|
|
言語 |
jpn |
キーワード |
|
|
主題Scheme |
Other |
|
主題 |
[一般論文(特選論文)] 自動要約,単一文書要約,隠れ半マルコフモデル |
資源タイプ |
|
|
資源タイプ識別子 |
http://purl.org/coar/resource_type/c_6501 |
|
資源タイプ |
journal article |
著者所属 |
|
|
|
日本電信電話株式会社/現在,東京工業大学大学院情報理工学研究科計算工学専攻 |
著者所属 |
|
|
|
日本電信電話株式会社 |
著者所属 |
|
|
|
日本電信電話株式会社 |
著者所属 |
|
|
|
日本電信電話株式会社 |
著者所属 |
|
|
|
日本電信電話株式会社 |
著者所属 |
|
|
|
日本電信電話株式会社 |
著者所属(英) |
|
|
|
en |
|
|
Nippon Telegraph and Telephone Corporation / Presently with Department of Computer Science, Graduate School of Information Science and Engineering, Tokyo Institute of Technology |
著者所属(英) |
|
|
|
en |
|
|
Nippon Telegraph and Telephone Corporation |
著者所属(英) |
|
|
|
en |
|
|
Nippon Telegraph and Telephone Corporation |
著者所属(英) |
|
|
|
en |
|
|
Nippon Telegraph and Telephone Corporation |
著者所属(英) |
|
|
|
en |
|
|
Nippon Telegraph and Telephone Corporation |
著者所属(英) |
|
|
|
en |
|
|
Nippon Telegraph and Telephone Corporation |
著者名 |
西川, 仁
有田, 一穂
田中, 克己
平尾, 努
牧野, 俊朗
松尾, 義博
|
著者名(英) |
Hitoshi, Nishikawa
Kazuho, Arita
Katsumi, Tanaka
Tsutomu, Hirao
Toshiro, Makino
Yoshihiro, Matsuo
|
論文抄録 |
|
|
内容記述タイプ |
Other |
|
内容記述 |
本論文では,隠れ半マルコフモデルによる単一文書要約手法を提案する.我々は,単一文書要約を,長さに関する制約の下で,所与の目的関数を最大化する文の系列を,入力文書から得た文集合から探索する問題と見なす.提案する手法は文を選択する際に文間の結束性を考慮することができ,さらに文短縮を組み込むこともできる.提案手法の有効性を評価するため,我々は12,748組もの文書とその参照要約からなる大規模な単一文書要約コーパスを用意した.提案手法は他のベースラインの多くをROUGEおよび言語的品質による評価において上回った.提案手法によって生成された要約の約20%が人間が作成した参照要約と完全に同一であった.また,大規模な単一文書要約コーパスが要約器の訓練に際して重要であることも明らかにした. |
論文抄録(英) |
|
|
内容記述タイプ |
Other |
|
内容記述 |
In this paper we introduce a novel single-document summarization method based on a hidden semi-Markov model. This method can naturally model single-document summarization as the optimization problem of selecting the best sequence from among the sentences in the input document under the given objective function and knapsack constraint. This advantage makes it possible for sentence selection to take the cohesion of the summary into account. In addition our method can also incorporate sentence compression into the summarization process. To demonstrate the effectiveness of our method, we conduct an experimental evaluation with a large-scale corpus consisting of 12,748 pairs of a document and its reference. The results show that our method significantly outperforms the competitive baselines in terms of ROUGE evaluation, and the linguistic quality of summaries is also improved. Our method successfully mimicked the reference summaries, about 20 percent of the summaries generated by our method were completely identical to their references. Moreover, we show that large-scale training samples are quite effective for training a summarizer. |
書誌レコードID |
|
|
収録物識別子タイプ |
NCID |
|
収録物識別子 |
AN00116647 |
書誌情報 |
情報処理学会論文誌
巻 57,
号 2,
p. 769-782,
発行日 2016-02-15
|
ISSN |
|
|
収録物識別子タイプ |
ISSN |
|
収録物識別子 |
1882-7764 |