ログイン 新規登録
言語:

WEKO3

  • トップ
  • ランキング
To
lat lon distance
To

Field does not validate



インデックスリンク

インデックスツリー

メールアドレスを入力してください。

WEKO

One fine body…

WEKO

One fine body…

アイテム

  1. 全国大会
  2. 84回
  3. 人工知能と認知科学

特許文書構造を利用したBERTによる事前学習

https://ipsj.ixsq.nii.ac.jp/records/221123
https://ipsj.ixsq.nii.ac.jp/records/221123
841af79d-ce56-4972-bf45-e20a6414238e
名前 / ファイル ライセンス アクション
IPSJ-Z84-1W-01.pdf IPSJ-Z84-1W-01.pdf (556.6 kB)
Copyright (c) 2022 by the Information Processing Society of Japan
Item type National Convention(1)
公開日 2022-02-17
タイトル
タイトル 特許文書構造を利用したBERTによる事前学習
言語
言語 jpn
キーワード
主題Scheme Other
主題 人工知能と認知科学
資源タイプ
資源タイプ識別子 http://purl.org/coar/resource_type/c_5794
資源タイプ conference paper
著者所属
同志社大
著者所属
同志社大
著者所属
同志社大
著者所属
トランスコスモス株式会社
著者所属
トランスコスモス株式会社
著者所属
同志社大
著者名 湯浅, 亮也

× 湯浅, 亮也

湯浅, 亮也

Search repository
谷, 和樹

× 谷, 和樹

谷, 和樹

Search repository
田村, 晃裕

× 田村, 晃裕

田村, 晃裕

Search repository
伊藤, 和真

× 伊藤, 和真

伊藤, 和真

Search repository
大林, 弘明

× 大林, 弘明

大林, 弘明

Search repository
加藤, 恒夫

× 加藤, 恒夫

加藤, 恒夫

Search repository
論文抄録
内容記述タイプ Other
内容記述 近年,様々な自然言語処理のタスクで,汎用的な分散表現を事前学習するBERTを活用することで最高精度が達成されている.従来のBERTモデルは文単位でトークンのまとまりを捉え,文章における各文の位置づけは考慮しない.一方,特許文書は,段落単位でまとめられて記述されており,【背景技術】や【発明の概要】などの見出しラベルにより構造化されている.そこで本研究では,段落単位で処理することで段落単位のまとまりを捉え,見出しラベルの情報を取り入れて学習を行う,特許文書のためのBERTによる事前学習手法を提案する.特許文書のクラスタリングの実験を行い,提案手法の方が従来のBERTよりも高いクラスタリング精度を実現できることを確認した.
書誌レコードID
収録物識別子タイプ NCID
収録物識別子 AN00349328
書誌情報 第84回全国大会講演論文集

巻 2022, 号 1, p. 773-774, 発行日 2022-02-17
出版者
言語 ja
出版者 情報処理学会
戻る
0
views
See details
Views

Versions

Ver.1 2025-01-19 14:17:22.642704
Show All versions

Share

Mendeley Twitter Facebook Print Addthis

Cite as

エクスポート

OAI-PMH
  • OAI-PMH JPCOAR
  • OAI-PMH DublinCore
  • OAI-PMH DDI
Other Formats
  • JSON
  • BIBTEX

Confirm


Powered by WEKO3


Powered by WEKO3