ログイン 新規登録
言語:

WEKO3

  • トップ
  • ランキング
To
lat lon distance
To

Field does not validate



インデックスリンク

インデックスツリー

メールアドレスを入力してください。

WEKO

One fine body…

WEKO

One fine body…

アイテム

  1. 全国大会
  2. 86回
  3. 人工知能と認知科学

複数粒度の係り受け関係に基づくTransformerニューラル機械翻訳

https://ipsj.ixsq.nii.ac.jp/records/236281
https://ipsj.ixsq.nii.ac.jp/records/236281
3aa2660d-dcb0-4fd2-b185-6b7968484a5c
名前 / ファイル ライセンス アクション
IPSJ-Z86-4W-04.pdf IPSJ-Z86-4W-04.pdf (452.6 kB)
Copyright (c) 2024 by the Information Processing Society of Japan
Item type National Convention(1)
公開日 2024-03-01
タイトル
タイトル 複数粒度の係り受け関係に基づくTransformerニューラル機械翻訳
言語
言語 jpn
キーワード
主題Scheme Other
主題 人工知能と認知科学
資源タイプ
資源タイプ識別子 http://purl.org/coar/resource_type/c_5794
資源タイプ conference paper
著者所属
同志社大
著者所属
同志社大
著者所属
同志社大
著者名 佐々木, 拓馬

× 佐々木, 拓馬

佐々木, 拓馬

Search repository
田村, 晃裕

× 田村, 晃裕

田村, 晃裕

Search repository
加藤, 恒夫

× 加藤, 恒夫

加藤, 恒夫

Search repository
論文抄録
内容記述タイプ Other
内容記述 Transformerニューラル機械翻訳(NMT)は,入力文の構造を考慮することで性能改善が行われている.入力文の構造として係り受け関係を考慮する従来のTransformer NMTでは,翻訳対象の言語に依らず一律に単語単位の係り受け関係が使われている.しかし,日本語の文構造は,文節単位の係り受け関係で表すことが多い.そこで本研究では,単語単位の係り受け関係と共に文節単位の係り受け関係を自己注意機構で考慮するTransformer NMTを提案する.ASPECデータを用いた日英翻訳実験の結果,細かい粒度の係り受け関係から順に低層の自己注意機構で考慮することで性能が改善することを確認した.
書誌レコードID
収録物識別子タイプ NCID
収録物識別子 AN00349328
書誌情報 第86回全国大会講演論文集

巻 2024, 号 1, p. 897-898, 発行日 2024-03-01
出版者
言語 ja
出版者 情報処理学会
戻る
0
views
See details
Views

Versions

Ver.1 2025-01-19 09:19:18.519581
Show All versions

Share

Mendeley Twitter Facebook Print Addthis

Cite as

エクスポート

OAI-PMH
  • OAI-PMH JPCOAR
  • OAI-PMH DublinCore
  • OAI-PMH DDI
Other Formats
  • JSON
  • BIBTEX

Confirm


Powered by WEKO3


Powered by WEKO3