ログイン 新規登録
言語:

WEKO3

  • トップ
  • ランキング
To
lat lon distance
To

Field does not validate



インデックスリンク

インデックスツリー

メールアドレスを入力してください。

WEKO

One fine body…

WEKO

One fine body…

アイテム

  1. 研究報告
  2. 自然言語処理(NL)
  3. 2025
  4. 2025-NL-264

日本語継続事前学習におけるPatch-Level Training

https://ipsj.ixsq.nii.ac.jp/records/2002808
https://ipsj.ixsq.nii.ac.jp/records/2002808
020cb95d-cdb4-4791-9beb-f02c557148ed
名前 / ファイル ライセンス アクション
IPSJ-NL25264001.pdf IPSJ-NL25264001.pdf (2.1 MB)
 2027年6月29日からダウンロード可能です。
Copyright (c) 2025 by the Information Processing Society of Japan
非会員:¥660, IPSJ:学会員:¥330, NL:会員:¥0, DLIB:会員:¥0
Item type SIG Technical Reports(1)
公開日 2025-06-29
タイトル
言語 ja
タイトル 日本語継続事前学習におけるPatch-Level Training
言語
言語 jpn
キーワード
主題Scheme Other
主題 大規模言語モデル学習
資源タイプ
資源タイプ識別子 http://purl.org/coar/resource_type/c_18gh
資源タイプ technical report
著者所属
高槻高等学校
著者所属
高槻高等学校
著者名 松本,和真

× 松本,和真

松本,和真

Search repository
山下,櫂璃

× 山下,櫂璃

山下,櫂璃

Search repository
論文抄録
内容記述タイプ Other
内容記述 大規模言語モデル(LLM)のモデルサイズと学習量の増大につれて,学習効率の向上が重要な課題となっている.Patch-Level TrainingはLLMの事前学習において,複数のトークンを単一のパッチに圧縮することで総学習データ長を短縮し,その短いパッチ列をLLMに与え,次のパッチを予測するように学習させることで学習データの大部分の計算コストを大幅に削減させるものである.その後,LLMを推論時に合わせて,残りの学習データに対して従来の学習を継続する.一連の流れでLLMの事前学習の計算コストを約50%削減できるとされている.そこで本稿ではLLMの日本語継続事前学習を従来の方法によって行ったモデルとPatch-Level Trainingによって行ったモデルを,生成タスクとその他下流タスクで評価することでPatch-Level Trainingが日本語継続事前学習に与える影響を調べた.結果,生成タスクでは大きな差は生じなかったが,下流タスクでは大幅な性能劣化が見られた.
書誌レコードID
収録物識別子タイプ NCID
収録物識別子 AN10115061
書誌情報 研究報告自然言語処理(NL)

巻 2025-NL-264, 号 1, p. 1-6, 発行日 2025-06-29
ISSN
収録物識別子タイプ ISSN
収録物識別子 2188-8779
Notice
SIG Technical Reports are nonrefereed and hence may later appear in any journals, conferences, symposia, etc.
出版者
言語 ja
出版者 情報処理学会
戻る
0
views
See details
Views

Versions

Ver.1 2025-06-19 06:44:15.138733
Show All versions

Share

Mendeley Twitter Facebook Print Addthis

Cite as

エクスポート

OAI-PMH
  • OAI-PMH JPCOAR
  • OAI-PMH DublinCore
  • OAI-PMH DDI
Other Formats
  • JSON
  • BIBTEX

Confirm


Powered by WEKO3


Powered by WEKO3