| Item type |
Trans(1) |
| 公開日 |
2025-01-28 |
| タイトル |
|
|
言語 |
ja |
|
タイトル |
みんぱくBERT:博物館における展示物の解説文を考慮した追加学習済みBERTモデル |
| タイトル |
|
|
言語 |
en |
|
タイトル |
MinpakuBERT: A BERT Model additionally Learned considering Exhibit Explanations in the Museum |
| 言語 |
|
|
言語 |
jpn |
| キーワード |
|
|
主題Scheme |
Other |
|
主題 |
[研究論文] BERT,博物館,展示物,追加学習 |
| 資源タイプ |
|
|
資源タイプ識別子 |
http://purl.org/coar/resource_type/c_6501 |
|
資源タイプ |
journal article |
| 著者所属 |
|
|
|
兵庫県立大学情報科学研究科 |
| 著者所属 |
|
|
|
東京都立大学都市環境学部/国立情報学研究所 |
| 著者所属 |
|
|
|
国立情報学研究所/総合研究大学院大学 |
| 著者所属 |
|
|
|
静岡大学情報学部 |
| 著者所属 |
|
|
|
兵庫県立大学情報科学研究科/国立情報学研究所 |
| 著者所属 |
|
|
|
名古屋市立大学 データサイエンス学部 |
| 著者所属 |
|
|
|
兵庫県立大学情報科学研究科/国立情報学研究所 |
| 著者所属(英) |
|
|
|
en |
|
|
Graduate School of Information Science, University of Hyogo |
| 著者所属(英) |
|
|
|
en |
|
|
Tokyo Metropolitan University Civil and Environmental Engineering / National Institute of Informatics |
| 著者所属(英) |
|
|
|
en |
|
|
National Institute of Informatics / The Graduate University for Advanced Studies |
| 著者所属(英) |
|
|
|
en |
|
|
Faculty of Informatics, Shizuoka University |
| 著者所属(英) |
|
|
|
en |
|
|
Graduate School of Information Science, University of Hyogo / National Institute of Informatics |
| 著者所属(英) |
|
|
|
en |
|
|
School of Data Science, Nagoya City University |
| 著者所属(英) |
|
|
|
en |
|
|
Graduate School of Information Science, University of Hyogo / National Institute of Informatics |
| 著者名 |
三林,亮太
相原,健郎
神門,典子
莊司,慶行
山本,岳洋
山本,祐輔
大島,裕明
|
| 著者名(英) |
Ryota Mibayashi
Kenro Aihara
Noriko Kando
Yoshiyuki Shoji
Takehiro Yamamoto
Yusuke Yamamoto
Hiroaki Ohshima
|
| 論文抄録 |
|
|
内容記述タイプ |
Other |
|
内容記述 |
本論文では,博物館における展示物の特徴理解に特化したBERTモデルを提案する.BERTは大規模なコーパスで事前学習したモデルを特定のタスクでファインチューニングすることで,様々なタスクに適応できる汎用言語モデルである.近年,ファインチューニングの前に,解きたいタスクに関連するコーパスで追加の学習をすることで,タスクにおける性能が向上することが知られている.このような追加の学習をしたモデルは,医療や法律などのドメインにおいて多く提案されているが,博物館に特化したモデルは提案されていない.博物館においては,鑑賞ルートの推薦や鑑賞観点の獲得などを目的とした研究が行われており,近年ではBERTなどの深層学習モデルを用いて本課題に取り組んでいる.そこで,本研究では,国立民族学博物館の展示物に関する文書データを用いてBERTモデルを追加学習することで,博物館における展示物の特徴理解に特化したBERTモデル(みんぱくBERT)を提案する.みんぱくBERTの有効性を検証するために,みんぱくBERTと事前学習済みBERTを展示物に関する2種類の下流タスクにおいて比較した.結果として,いずれの下流タスクにおいてもみんぱくBERTの有効性が示された. |
| 論文抄録(英) |
|
|
内容記述タイプ |
Other |
|
内容記述 |
In this paper, we propose a BERT model specialized for understanding cultural properties in museums. BERT is a general-purpose language model that is pre-trained on a large corpus and can be adapted to a wide range of tasks through fine-tuning. Recent studies have shown that additional learning on a domain-specific corpus before fine-tuning can further improve task performance. While such domain-specific models have been proposed in fields like medicine and law, no models designed specifically for museums have been developed. In the museum domain, research has been conducted on topics such as recommending viewing routes and acquiring viewing perspectives, and recently, deep learning models like BERT have been applied to these tasks. In this study, we propose “MinpakuBERT,” a BERT model specialized for understanding cultural properties in museums, by conducting additional learning using document data from the National Museum of Ethnology. To evaluate its effectiveness, we compared the performance of MinpakuBERT with that of pre-trained BERT on two downstream tasks related to museum exhibits. The results demonstrated that MinpakuBERT outperformed the pre-trained BERT in both tasks. |
| 書誌レコードID |
|
|
収録物識別子タイプ |
NCID |
|
収録物識別子 |
AA11464847 |
| 書誌情報 |
情報処理学会論文誌データベース(TOD)
巻 18,
号 1,
p. 14-23,
発行日 2025-01-28
|
| ISSN |
|
|
収録物識別子タイプ |
ISSN |
|
収録物識別子 |
1882-7799 |
| 出版者 |
|
|
言語 |
ja |
|
出版者 |
情報処理学会 |