ログイン 新規登録
言語:

WEKO3

  • トップ
  • ランキング
To
lat lon distance
To

Field does not validate



インデックスリンク

インデックスツリー

メールアドレスを入力してください。

WEKO

One fine body…

WEKO

One fine body…

アイテム

  1. シンポジウム
  2. シンポジウムシリーズ
  3. ゲームプログラミングワークショップ(GPWS)
  4. 2023

Atari 2600環境におけるDecision Transformerの事前学習手法

https://ipsj.ixsq.nii.ac.jp/records/229336
https://ipsj.ixsq.nii.ac.jp/records/229336
f8cbb299-0f83-4434-a835-dc9e5bed2788
名前 / ファイル ライセンス アクション
IPSJ-GPWS2023003.pdf IPSJ-GPWS2023003.pdf (620.4 kB)
Copyright (c) 2023 by the Information Processing Society of Japan
オープンアクセス
Item type Symposium(1)
公開日 2023-11-10
タイトル
タイトル Atari 2600環境におけるDecision Transformerの事前学習手法
タイトル
言語 en
タイトル Pre-Training Methods for Decision Transformers in the Atari 2600 Environment
言語
言語 jpn
キーワード
主題Scheme Other
主題 強化学習
キーワード
主題Scheme Other
主題 メタ学習
キーワード
主題Scheme Other
主題 事前学習
資源タイプ
資源タイプ識別子 http://purl.org/coar/resource_type/c_5794
資源タイプ conference paper
著者所属
東京大学大学院 情報理工学系研究科 電子情報学専攻
著者所属
東京大学大学院 情報理工学系研究科 電子情報学専攻
著者所属(英)
en
Graduate School of Information Science and Technology, The University of Tokyo
著者所属(英)
en
Graduate School of Information Science and Technology, The University of Tokyo
著者名 岩瀬, 諒

× 岩瀬, 諒

岩瀬, 諒

Search repository
鶴岡, 慶雅

× 鶴岡, 慶雅

鶴岡, 慶雅

Search repository
著者名(英) Ryo, Iwase

× Ryo, Iwase

en Ryo, Iwase

Search repository
Yoshimasa, Tsuruoka

× Yoshimasa, Tsuruoka

en Yoshimasa, Tsuruoka

Search repository
論文抄録
内容記述タイプ Other
内容記述 近年,自然言語処理や画像処理の分野などの分野を中心に,大規模データセットによる機械学習モデルの事前学習に注目が集まっている.事前学習を行なったモデルは,下流タスクでファインチューニングすることで高い性能を発揮することができる.強化学習の分野においても,オフライン強化学習手法の一つである Decision Transformer を複数のタスクで事前学習することにより,新規タスクにおける性能が向上することが知られている.しかし,その学習の方法は下流タスクと同一であることが多く,特に画像などの高次元の状態を扱う環境において,どのような事前学習が下流タスクの性能の改善に有効であるかは詳しく調べられていない.本研究では,画像入力のゲーム環境である Atari 2600 のデータセットを利用して,Decision Transformer の事前学習手法の比較を行なった.すると,画像表現のみの事前学習や次フレーム予測によるダイナミクスの事前学習でも事前学習無しのモデルに比べて性能が改善し,行動の予測による事前学習に近い性能を発揮することが確認できた.さらに,データセットを人工生成したフラクタル画像や YouTube ビデオで代替した事前学習を行った.その結果,YouTube のビデオデータセットによる学習では事前学習無しのモデルと同等かそれ以下の性能であったが,フラクタルデータセットによる事前学習においては性能の改善が見られた.
論文抄録(英)
内容記述タイプ Other
内容記述 In recent years, pre-training machine learning models on large datasets has received considerable attention, especially in the fields of natural language and image processing. These pre-trained models are often fine-tuned for downstream tasks to achieve high performance. In reinforcement learning, although pre-training decision transformers (DTs) has been shown to improve performance on novel tasks, the methods used are typically similar to those used for downstream tasks. To date, there has been limited research on which pre-training techniques for DT are most effective for improving performance in high-dimensional state spaces, such as image-based environments. In this study, we investigate different pre-training methods for DT using the Atari 2600, a set of game environments with image-based input. Our results show that both pre-training only the image representation and pre-training the dynamics via next-frame prediction outperformed the non-pre-trained model. Interestingly, these approaches yielded performance comparable to that achieved by pre-training with action prediction. In addition, we performed pre-training by replacing the dataset with artificially generated fractal images and YouTube videos. We found that the model pre-trained on the YouTube dataset did not show improved performance, while the model trained on the fractal dataset showed improvements in downstream tasks.
書誌情報 ゲームプログラミングワークショップ2023論文集

巻 2023, p. 11-17, 発行日 2023-11-10
出版者
言語 ja
出版者 情報処理学会
戻る
0
views
See details
Views

Versions

Ver.1 2025-01-19 11:34:46.077425
Show All versions

Share

Mendeley Twitter Facebook Print Addthis

Cite as

エクスポート

OAI-PMH
  • OAI-PMH JPCOAR
  • OAI-PMH DublinCore
  • OAI-PMH DDI
Other Formats
  • JSON
  • BIBTEX

Confirm


Powered by WEKO3


Powered by WEKO3