ログイン 新規登録
言語:

WEKO3

  • トップ
  • ランキング
To
lat lon distance
To

Field does not validate



インデックスリンク

インデックスツリー

メールアドレスを入力してください。

WEKO

One fine body…

WEKO

One fine body…

アイテム

  1. 研究報告
  2. システムソフトウェアとオペレーティング・システム(OS)
  3. 2023
  4. 2023-OS-158

分散強化学習におけるデータ保存ライブラリの設計と実装

https://ipsj.ixsq.nii.ac.jp/records/224304
https://ipsj.ixsq.nii.ac.jp/records/224304
a4b4bb82-f730-420c-9f28-ccf1b1f5165a
名前 / ファイル ライセンス アクション
IPSJ-OS23158025.pdf IPSJ-OS23158025.pdf (735.2 kB)
Copyright (c) 2023 by the Information Processing Society of Japan
オープンアクセス
Item type SIG Technical Reports(1)
公開日 2023-02-14
タイトル
タイトル 分散強化学習におけるデータ保存ライブラリの設計と実装
タイトル
言語 en
タイトル Design and Implementation of a Data Storage Library for Distributed Reinforcement Learning
言語
言語 jpn
キーワード
主題Scheme Other
主題 データ基盤
資源タイプ
資源タイプ識別子 http://purl.org/coar/resource_type/c_18gh
資源タイプ technical report
著者所属
高知工科大学大学院工学研究科
著者所属
高知工科大学情報学群
著者所属(英)
en
Graduate School of Engineering, Kochi University of Technology
著者所属(英)
en
School of Information, Kochi University of Technology
著者名 仮谷, 拡晃

× 仮谷, 拡晃

仮谷, 拡晃

Search repository
松崎, 公紀

× 松崎, 公紀

松崎, 公紀

Search repository
著者名(英) Hiroaki, Kariya

× Hiroaki, Kariya

en Hiroaki, Kariya

Search repository
Kiminori, Matsuzaki

× Kiminori, Matsuzaki

en Kiminori, Matsuzaki

Search repository
論文抄録
内容記述タイプ Other
内容記述 分散強化学習は,強化学習におけるエージェントの経験生成を分散並列処理により高速化したものであり,様々な応用分野で利用されている.分散強化学習では,複数のアクターが非同期かつ並列に学習データを生成するが,生成された学習データは検証や解析などの追試のため保存されていることが望ましい.そこで本研究では,強化学習向けの分散並列処理フレームワークである Ray 上で動作する,分散強化学習向けのデータ保存ライブラリの設計と実装を行う.非同期に生成される学習データを効率よく保存するために,ファイルへの書き込み処理をリモート関数化した Ray アクターを用いて,非同期に処理する.実装したライブラリの性能を評価するため,OpenAI Gym が提供する CartPole と Breakout 環境を用いて,学習データを保存した際の実行時間を測定した.CartPole 環境を用いた実験結果から,経験の生成を行うアクターが多くなるとアクター間のデータの受け渡しがボトルネックとなりうることが確認された.一方,状態のデータサイズが大きい Breakout 環境を用いた実験結果から,Ray においてリモート関数を実行する際に発生する共有メモリへのオブジェクトコピーが,20% 程度のオーバーヘッドとなることが確認された.
論文抄録(英)
内容記述タイプ Other
内容記述 Distributed Reinforcement Learning (DRL) applies distributed parallel computing to the generation of episodes in reinforcement learning and is an important AI method with many applications. In DRL, multiple actors generate training data asynchronously in parallel, and those generated training data should be saved for follow-up studies for verification and analysis. In this study, we design and implement a data storage library for DRL on top of Ray, a distributed parallel processing framework especially for reinforcement learning. In order to efficiently and asynchronously save the generated data, we use remote Ray actors for the write-to-file processes. To evaluate the performance of proposed library, we measured the execution time with saving the training data for two applications, CartPole and Breakout, from OpenAI Gym. From the experiment results with the CartPole application, we observed a possible bottleneck of data transfer between actors, as we increased the number of episode-generating actors. From the experiment results with the Breakout application with a large data size of the states, we had an overhead of about 20% of execution time due to the data copy to the shared memory in Ray's remote calls.
書誌レコードID
収録物識別子タイプ NCID
収録物識別子 AN10444176
書誌情報 研究報告システムソフトウェアとオペレーティング・システム(OS)

巻 2023-OS-158, 号 25, p. 1-8, 発行日 2023-02-14
ISSN
収録物識別子タイプ ISSN
収録物識別子 2188-8795
Notice
SIG Technical Reports are nonrefereed and hence may later appear in any journals, conferences, symposia, etc.
出版者
言語 ja
出版者 情報処理学会
戻る
0
views
See details
Views

Versions

Ver.1 2025-01-19 13:11:45.309983
Show All versions

Share

Mendeley Twitter Facebook Print Addthis

Cite as

エクスポート

OAI-PMH
  • OAI-PMH JPCOAR
  • OAI-PMH DublinCore
  • OAI-PMH DDI
Other Formats
  • JSON
  • BIBTEX

Confirm


Powered by WEKO3


Powered by WEKO3