ログイン 新規登録
言語:

WEKO3

  • トップ
  • ランキング
To
lat lon distance
To

Field does not validate



インデックスリンク

インデックスツリー

メールアドレスを入力してください。

WEKO

One fine body…

WEKO

One fine body…

アイテム

  1. シンポジウム
  2. シンポジウムシリーズ
  3. じんもんこんシンポジウム
  4. 2023

ニューラル機械翻訳を使った中国語古文の翻訳 -訓練・評価時の時間的差異の検証

https://ipsj.ixsq.nii.ac.jp/records/231357
https://ipsj.ixsq.nii.ac.jp/records/231357
d78bff26-3594-437a-bb1a-36e43baa9e12
名前 / ファイル ライセンス アクション
IPSJ-CH2023022.pdf IPSJ-CH2023022.pdf (707.8 kB)
Copyright (c) 2023 by the Information Processing Society of Japan
オープンアクセス
Item type Symposium(1)
公開日 2023-12-02
タイトル
タイトル ニューラル機械翻訳を使った中国語古文の翻訳 -訓練・評価時の時間的差異の検証
タイトル
言語 en
タイトル Translation of ancient Chinese using neural machine translation —Verification of temporal differences during training and testing
言語
言語 jpn
キーワード
主題Scheme Other
主題 ニューラル機械翻訳; 中国語古文; パラレルコーパス; 事前学習済みモデル
資源タイプ
資源タイプ識別子 http://purl.org/coar/resource_type/c_5794
資源タイプ conference paper
著者所属
東京都立大学大学院 システムデザイン研究科
著者所属
東京都立大学大学院 システムデザイン研究科
著者所属
東京都立大学大学院 システムデザイン研究科
著者所属
一橋大学大学院 ソーシャル・データサイエンス研究科
著者所属
東京農工大学大学院 工学研究院
著者所属(英)
en
Graduate School of Systems Design, Tokyo Metropolitan University
著者所属(英)
en
Graduate School of Systems Design, Tokyo Metropolitan University
著者所属(英)
en
Graduate School of Systems Design, Tokyo Metropolitan University
著者所属(英)
en
Graduate School of Social Data Science, Hitotsubashi University
著者所属(英)
en
Institute of Engineering, Tokyo University of Agriculture and Technology
著者名 段, 文傑

× 段, 文傑

段, 文傑

Search repository
王, 鴻飛

× 王, 鴻飛

王, 鴻飛

Search repository
岡, 照晃

× 岡, 照晃

岡, 照晃

Search repository
小町, 守

× 小町, 守

小町, 守

Search repository
古宮, 嘉那子

× 古宮, 嘉那子

古宮, 嘉那子

Search repository
著者名(英) Wenjie, Duan Hongfei Wang Teruaki Oka Mamoru Komachi Kanako Komiya

× Wenjie, Duan Hongfei Wang Teruaki Oka Mamoru Komachi Kanako Komiya

en Wenjie, Duan Hongfei Wang Teruaki Oka Mamoru Komachi Kanako Komiya

Search repository
論文抄録
内容記述タイプ Other
内容記述 時代の経過とともに,単語や文法などが変化する可能性が高い.そのため,訓練データと評価データの時間的差異が大きくなると中国語古文の翻訳モデルの性能が低下するという仮説を立てた.そこで,本論文では,異なる時代スパンの中国語パラレルコーパスを使用してニューラル機械翻訳モデルを訓練し,古文から現代文への翻訳性能を調査した.また,事前学習済みモデルをコンテキスト埋め込みとして使用する有効性について考察した.調査の結果,訓練データと評価データの時代が遠いほど翻訳モデルの性能が下がることが分かった.また,今回の事前学習済みモデルの使用方法では翻訳性能を改善できなかった.
論文抄録(英)
内容記述タイプ Other
内容記述 As time passes, words and grammar are likely to change. Therefore, the performance of translation models is believed to decrease when there are significant temporal differences between the training and testing data. In this paper, we trained neural machine translation models using Chinese parallel corpora from different time periods and investigated their performance in translating ancient Chinese to modern Chinese. Additionally, we discussed the effectiveness of using a pre-trained model as contextual embeddings. The results of investigation indicated that the further apart the time periods of the training and testing data, the lower the performance of the translation models. Furthermore, the use of the pre-trained model in this study did not lead to an improvement in translation performance.
書誌情報 じんもんこん2023論文集

巻 2023, p. 153-160, 発行日 2023-12-02
出版者
言語 ja
出版者 情報処理学会
戻る
0
views
See details
Views

Versions

Ver.1 2025-01-19 10:47:42.141613
Show All versions

Share

Mendeley Twitter Facebook Print Addthis

Cite as

エクスポート

OAI-PMH
  • OAI-PMH JPCOAR
  • OAI-PMH DublinCore
  • OAI-PMH DDI
Other Formats
  • JSON
  • BIBTEX

Confirm


Powered by WEKO3


Powered by WEKO3