ログイン 新規登録
言語:

WEKO3

  • トップ
  • ランキング
To
lat lon distance
To

Field does not validate



インデックスリンク

インデックスツリー

メールアドレスを入力してください。

WEKO

One fine body…

WEKO

One fine body…

アイテム

  1. 論文誌(トランザクション)
  2. プログラミング(PRO)
  3. Vol.14
  4. No.5

Transformerによる日本語とPythonコード間の機械翻訳

https://ipsj.ixsq.nii.ac.jp/records/213901
https://ipsj.ixsq.nii.ac.jp/records/213901
11e49201-4449-498b-a2d6-a3a3122a34ff
名前 / ファイル ライセンス アクション
IPSJ-TPRO1405008.pdf IPSJ-TPRO1405008.pdf (105.6 kB)
Copyright (c) 2021 by the Information Processing Society of Japan
オープンアクセス
Item type Trans(1)
公開日 2021-11-25
タイトル
タイトル Transformerによる日本語とPythonコード間の機械翻訳
タイトル
言語 en
タイトル Machine Translation between Japanese and Python Code using Transformer
言語
言語 jpn
キーワード
主題Scheme Other
主題 [発表概要, Unrefereed Presentatin Abstract]
資源タイプ
資源タイプ識別子 http://purl.org/coar/resource_type/c_6501
資源タイプ journal article
著者所属
日本女子大学大学院理学研究科数理・物性構造科学専攻
著者所属
日本女子大学理学部数物科学科
著者所属
ソフトバンク株式会社
著者所属
日本女子大学理学部数物科学科
著者所属(英)
en
Graduate School of Science Division of Mathematical and Physical Sciences, Japan Women's University
著者所属(英)
en
Department of Mathematical and Physical Sciences, Japan Women's University
著者所属(英)
en
Department of Mathematical and Physical Sciences, Japan Women's University
著者名 秋信, 有花

× 秋信, 有花

秋信, 有花

Search repository
小原, 百々雅

× 小原, 百々雅

小原, 百々雅

Search repository
縫嶋, 慧深

× 縫嶋, 慧深

縫嶋, 慧深

Search repository
倉光, 君郎

× 倉光, 君郎

倉光, 君郎

Search repository
著者名(英) Yuka, Akinobu

× Yuka, Akinobu

en Yuka, Akinobu

Search repository
Momoka, Obara

× Momoka, Obara

en Momoka, Obara

Search repository
Emi, Nuijima

× Emi, Nuijima

en Emi, Nuijima

Search repository
Kimio, Kuramitsu

× Kimio, Kuramitsu

en Kimio, Kuramitsu

Search repository
論文抄録
内容記述タイプ Other
内容記述 Transformerは,自然言語処理向けの深層学習モデルである.自然言語処理の機械学習タスク全般において,従来モデルのRNNやLTSMに比べ明らかな好成績を示すのが特徴である.我々は,自然言語を用いたプログラミング支援の実現を目指し,Transformerを用いて日本語とPythonコード間のニューラル機械翻訳モデルを構築した.特徴は,SentencePieceによる日本語のトークン化と特殊トークンを用いたコードのベクトル化である.これらの工夫により,代表的な機械翻訳の評価尺度であるBLEUは,先行研究と比較して高いスコアが得られた.本発表では,我々が構築をした日本語とPythonコード間の翻訳モデルと翻訳精度について報告する.実験では,教師データとなる前処理の有無や対訳コーパスの量を変化させ,さまざまなバリエーションのモデルを構築し,評価を行った.これらの知見に基づいて,ソースコードの深層学習技術の適用への展望をまとめる.
論文抄録(英)
内容記述タイプ Other
内容記述 Transformer is a deep learning model for natural language processing. It is characterized by clearly better performance than conventional models such as RNN and LTSM in all machine learning tasks of natural language processing. We built a neural machine translation model between Japanese and Python code using Transformer, aiming to realize programming support using natural language. The features are the tokenization of Japanese by SentencePiece and the vectorization of the code using special tokens. With these innovations, BLEU, a typical evaluation measure for machine translation, performed better than the previous work. In this presentation, we report on our machine translation model and its accuracy. In the experiments, we built and evaluated various variations of the model. Based on these findings, we summarize the prospects for the applying deep learning techniques in source code.
書誌レコードID
収録物識別子タイプ NCID
収録物識別子 AA11464814
書誌情報 情報処理学会論文誌プログラミング(PRO)

巻 14, 号 5, p. 50-50, 発行日 2021-11-25
ISSN
収録物識別子タイプ ISSN
収録物識別子 1882-7802
出版者
言語 ja
出版者 情報処理学会
戻る
0
views
See details
Views

Versions

Ver.1 2025-01-19 16:58:35.798108
Show All versions

Share

Mendeley Twitter Facebook Print Addthis

Cite as

エクスポート

OAI-PMH
  • OAI-PMH JPCOAR
  • OAI-PMH DublinCore
  • OAI-PMH DDI
Other Formats
  • JSON
  • BIBTEX

Confirm


Powered by WEKO3


Powered by WEKO3