@techreport{oai:ipsj.ixsq.nii.ac.jp:00200747, author = {田中, 裕隆 and 曹, 鋭 and 白, 静 and 馬, ブン and 新納, 浩幸 and Hirotaka, Tanaka and Rui, Cao and Jing, Bai and Wen, Ma and Hiroyuki, Shinnou}, issue = {8}, month = {Nov}, note = {近年,BERT のような事前学習モデルを利用することで,自然言語処理システムの性能が大きく向上している.BERT は,Transformer の Multi-head Attention を用いることで文脈に応じた単語の埋め込み表現列を得ることのできるモデルである.文書分類のタスクの場合,文書を BERT に入力し,その出力から文書の特徴ベクトルを構築する方法によって処理できる.しかし,BERTに入力できるシーケンスの長さには上限がある.この制限によって,長い文書を扱う場合,標準的な手法では文書分類に必要な情報を十分に得られないと考えられる.そこで,BERT から長い文書内の全ての単語に対応する埋め込み表現を得て,そこから文書の特徴ベクトルを作成する手法を提案する.}, title = {BERTを利用した文書の特徴ベクトルの作成}, year = {2019} }