@inproceedings{oai:ipsj.ixsq.nii.ac.jp:00207670, author = {川島, 丸生 and 伊庭, 斉志 and Maruki, Kawashima and Hitoshi, Iba}, book = {ゲームプログラミングワークショップ2020論文集}, month = {Nov}, note = {多くの機械学習モデルは, 過去のタスクで学習した知識を忘れること無く, 新しいタスクを学習することができない. 継続的学習は, この問題を解決することを目的とした手法で, 1 つのモデルが複数のタスクを逐次的に学習する. 継続的学習の中でも, ゲームやロボットの操作といった強化学習のタスクを扱う継続的強化学習がある. 継続的強化学習手法は入出力を統一するのが一般的であるが, 画像入力と状態入力を一緒に扱うことができないようにタスクの範囲が限られている問題がある. そこで本研究では, 入出力サイズの異なるタスクを扱える継続的強化学習手法を提案する. 提案手法は, 継続的学習手法であるLearn-to-Grow を拡張することにより, 強化学習のアルゴリズムであるDDQN と組み合わせた. 本稿では,OpenAI Gym Atari のいくつかのタスクで提案手法の有効性を検証し, 破滅的忘却を防げていることなどを確認した., Many machine learning models are unable to learn a new task without forgetting the knowledge learned in past tasks. Continual learning is a method aimed at solving this problem, where one model learns multiple tasks sequentially. Continuous reinforcement learning deals with reinforcement learning tasks such as games and robot operations. Although continual reinforcement learning methods generally unify input and output, there is a problem that the scope of the task is limited such that image and state inputs cannot be handled together. In this study, we propose a continuous reinforcement learning method that can handle tasks with different input and output sizes. The proposed method is an extension of a continuous learning method, Learn-to-Grow, and is combined with a reinforcement learning algorithm, DDQN. In this paper, we tested the effectiveness of the proposed method on several tasks of OpenAI Gym Atari and confirmed that the method prevented catastrophic forgetting.}, pages = {161--168}, publisher = {情報処理学会}, title = {複数の入出力サイズを扱う継続的強化学習手法}, volume = {2020}, year = {2020} }