ログイン 新規登録
言語:

WEKO3

  • トップ
  • ランキング
To
lat lon distance
To

Field does not validate



インデックスリンク

インデックスツリー

メールアドレスを入力してください。

WEKO

One fine body…

WEKO

One fine body…

アイテム

  1. 論文誌(トランザクション)
  2. データベース(TOD)[電子情報通信学会データ工学研究専門委員会共同編集]
  3. Vol.18
  4. No.1

みんぱくBERT:博物館における展示物の解説文を考慮した追加学習済みBERTモデル

https://ipsj.ixsq.nii.ac.jp/records/2000768
https://ipsj.ixsq.nii.ac.jp/records/2000768
d53057df-a409-4368-bfb6-808d2756b95f
名前 / ファイル ライセンス アクション
IPSJ-TOD1801004.pdf IPSJ-TOD1801004.pdf (1.9 MB)
 2027年1月28日からダウンロード可能です。
Copyright (c) 2025 by the Information Processing Society of Japan
非会員:¥660, IPSJ:学会員:¥330, DBS:会員:¥0, IFAT:会員:¥0, DLIB:会員:¥0
Item type Trans(1)
公開日 2025-01-28
タイトル
言語 ja
タイトル みんぱくBERT:博物館における展示物の解説文を考慮した追加学習済みBERTモデル
タイトル
言語 en
タイトル MinpakuBERT: A BERT Model additionally Learned considering Exhibit Explanations in the Museum
言語
言語 jpn
キーワード
主題Scheme Other
主題 [研究論文] BERT,博物館,展示物,追加学習
資源タイプ
資源タイプ識別子 http://purl.org/coar/resource_type/c_6501
資源タイプ journal article
著者所属
兵庫県立大学情報科学研究科
著者所属
東京都立大学都市環境学部/国立情報学研究所
著者所属
国立情報学研究所/総合研究大学院大学
著者所属
静岡大学情報学部
著者所属
兵庫県立大学情報科学研究科/国立情報学研究所
著者所属
名古屋市立大学 データサイエンス学部
著者所属
兵庫県立大学情報科学研究科/国立情報学研究所
著者所属(英)
en
Graduate School of Information Science, University of Hyogo
著者所属(英)
en
Tokyo Metropolitan University Civil and Environmental Engineering / National Institute of Informatics
著者所属(英)
en
National Institute of Informatics / The Graduate University for Advanced Studies
著者所属(英)
en
Faculty of Informatics, Shizuoka University
著者所属(英)
en
Graduate School of Information Science, University of Hyogo / National Institute of Informatics
著者所属(英)
en
School of Data Science, Nagoya City University
著者所属(英)
en
Graduate School of Information Science, University of Hyogo / National Institute of Informatics
著者名 三林,亮太

× 三林,亮太

三林,亮太

Search repository
相原,健郎

× 相原,健郎

相原,健郎

Search repository
神門,典子

× 神門,典子

神門,典子

Search repository
莊司,慶行

× 莊司,慶行

莊司,慶行

Search repository
山本,岳洋

× 山本,岳洋

山本,岳洋

Search repository
山本,祐輔

× 山本,祐輔

山本,祐輔

Search repository
大島,裕明

× 大島,裕明

大島,裕明

Search repository
著者名(英) Ryota Mibayashi

× Ryota Mibayashi

en Ryota Mibayashi

Search repository
Kenro Aihara

× Kenro Aihara

en Kenro Aihara

Search repository
Noriko Kando

× Noriko Kando

en Noriko Kando

Search repository
Yoshiyuki Shoji

× Yoshiyuki Shoji

en Yoshiyuki Shoji

Search repository
Takehiro Yamamoto

× Takehiro Yamamoto

en Takehiro Yamamoto

Search repository
Yusuke Yamamoto

× Yusuke Yamamoto

en Yusuke Yamamoto

Search repository
Hiroaki Ohshima

× Hiroaki Ohshima

en Hiroaki Ohshima

Search repository
論文抄録
内容記述タイプ Other
内容記述 本論文では,博物館における展示物の特徴理解に特化したBERTモデルを提案する.BERTは大規模なコーパスで事前学習したモデルを特定のタスクでファインチューニングすることで,様々なタスクに適応できる汎用言語モデルである.近年,ファインチューニングの前に,解きたいタスクに関連するコーパスで追加の学習をすることで,タスクにおける性能が向上することが知られている.このような追加の学習をしたモデルは,医療や法律などのドメインにおいて多く提案されているが,博物館に特化したモデルは提案されていない.博物館においては,鑑賞ルートの推薦や鑑賞観点の獲得などを目的とした研究が行われており,近年ではBERTなどの深層学習モデルを用いて本課題に取り組んでいる.そこで,本研究では,国立民族学博物館の展示物に関する文書データを用いてBERTモデルを追加学習することで,博物館における展示物の特徴理解に特化したBERTモデル(みんぱくBERT)を提案する.みんぱくBERTの有効性を検証するために,みんぱくBERTと事前学習済みBERTを展示物に関する2種類の下流タスクにおいて比較した.結果として,いずれの下流タスクにおいてもみんぱくBERTの有効性が示された.
論文抄録(英)
内容記述タイプ Other
内容記述 In this paper, we propose a BERT model specialized for understanding cultural properties in museums. BERT is a general-purpose language model that is pre-trained on a large corpus and can be adapted to a wide range of tasks through fine-tuning. Recent studies have shown that additional learning on a domain-specific corpus before fine-tuning can further improve task performance. While such domain-specific models have been proposed in fields like medicine and law, no models designed specifically for museums have been developed. In the museum domain, research has been conducted on topics such as recommending viewing routes and acquiring viewing perspectives, and recently, deep learning models like BERT have been applied to these tasks. In this study, we propose “MinpakuBERT,” a BERT model specialized for understanding cultural properties in museums, by conducting additional learning using document data from the National Museum of Ethnology. To evaluate its effectiveness, we compared the performance of MinpakuBERT with that of pre-trained BERT on two downstream tasks related to museum exhibits. The results demonstrated that MinpakuBERT outperformed the pre-trained BERT in both tasks.
書誌レコードID
収録物識別子タイプ NCID
収録物識別子 AA11464847
書誌情報 情報処理学会論文誌データベース(TOD)

巻 18, 号 1, p. 14-23, 発行日 2025-01-28
ISSN
収録物識別子タイプ ISSN
収録物識別子 1882-7799
出版者
言語 ja
出版者 情報処理学会
戻る
0
views
See details
Views

Versions

Ver.1 2025-02-20 07:22:23.388989
Show All versions

Share

Mendeley Twitter Facebook Print Addthis

Cite as

エクスポート

OAI-PMH
  • OAI-PMH JPCOAR
  • OAI-PMH DublinCore
  • OAI-PMH DDI
Other Formats
  • JSON
  • BIBTEX

Confirm


Powered by WEKO3


Powered by WEKO3