Item type |
National Convention(1) |
公開日 |
2022-02-17 |
タイトル |
|
|
タイトル |
特許文書構造を利用したBERTによる事前学習 |
言語 |
|
|
言語 |
jpn |
キーワード |
|
|
主題Scheme |
Other |
|
主題 |
人工知能と認知科学 |
資源タイプ |
|
|
資源タイプ識別子 |
http://purl.org/coar/resource_type/c_5794 |
|
資源タイプ |
conference paper |
著者所属 |
|
|
|
同志社大 |
著者所属 |
|
|
|
同志社大 |
著者所属 |
|
|
|
同志社大 |
著者所属 |
|
|
|
トランスコスモス株式会社 |
著者所属 |
|
|
|
トランスコスモス株式会社 |
著者所属 |
|
|
|
同志社大 |
著者名 |
湯浅, 亮也
谷, 和樹
田村, 晃裕
伊藤, 和真
大林, 弘明
加藤, 恒夫
|
論文抄録 |
|
|
内容記述タイプ |
Other |
|
内容記述 |
近年,様々な自然言語処理のタスクで,汎用的な分散表現を事前学習するBERTを活用することで最高精度が達成されている.従来のBERTモデルは文単位でトークンのまとまりを捉え,文章における各文の位置づけは考慮しない.一方,特許文書は,段落単位でまとめられて記述されており,【背景技術】や【発明の概要】などの見出しラベルにより構造化されている.そこで本研究では,段落単位で処理することで段落単位のまとまりを捉え,見出しラベルの情報を取り入れて学習を行う,特許文書のためのBERTによる事前学習手法を提案する.特許文書のクラスタリングの実験を行い,提案手法の方が従来のBERTよりも高いクラスタリング精度を実現できることを確認した. |
書誌レコードID |
|
|
収録物識別子タイプ |
NCID |
|
収録物識別子 |
AN00349328 |
書誌情報 |
第84回全国大会講演論文集
巻 2022,
号 1,
p. 773-774,
発行日 2022-02-17
|
出版者 |
|
|
言語 |
ja |
|
出版者 |
情報処理学会 |