@inproceedings{oai:ipsj.ixsq.nii.ac.jp:00221123, author = {湯浅, 亮也 and 谷, 和樹 and 田村, 晃裕 and 伊藤, 和真 and 大林, 弘明 and 加藤, 恒夫}, book = {第84回全国大会講演論文集}, issue = {1}, month = {Feb}, note = {近年,様々な自然言語処理のタスクで,汎用的な分散表現を事前学習するBERTを活用することで最高精度が達成されている.従来のBERTモデルは文単位でトークンのまとまりを捉え,文章における各文の位置づけは考慮しない.一方,特許文書は,段落単位でまとめられて記述されており,【背景技術】や【発明の概要】などの見出しラベルにより構造化されている.そこで本研究では,段落単位で処理することで段落単位のまとまりを捉え,見出しラベルの情報を取り入れて学習を行う,特許文書のためのBERTによる事前学習手法を提案する.特許文書のクラスタリングの実験を行い,提案手法の方が従来のBERTよりも高いクラスタリング精度を実現できることを確認した.}, pages = {773--774}, publisher = {情報処理学会}, title = {特許文書構造を利用したBERTによる事前学習}, volume = {2022}, year = {2022} }