2024-03-29T03:36:27Zhttps://ipsj.ixsq.nii.ac.jp/ej/?action=repository_oaipmhoai:ipsj.ixsq.nii.ac.jp:000903982023-04-27T10:00:04Z01164:05305:07084:07085
GGPにおける強さとバランスを両立したモンテカルロ木探索の方策の学習Learning Strong And Balanced Policies for Monte-Carlo Tree Search in GGPjpnモンテカルロ木探索http://id.nii.ac.jp/1001/00090381/Technical Reporthttps://ipsj.ixsq.nii.ac.jp/ej/?action=repository_action_common_download&item_id=90398&item_no=1&attribute_id=1&file_no=1Copyright (c) 2013 by the Information Processing Society of Japan東京大学工学部電子情報工学科東京大学大学院工学系研究科マンチェスター大学コンピュータ科学科東京大学大学院工学系研究科東京大学大学院工学系研究科藤田, 康博浦, 晃三輪, 誠鶴岡, 慶雅近山, 隆General Game Playing (GGP)は形式的に表現されたゲームルールを解釈することで、幅広い未知のゲームをうまくプレイできるプログラムを実現する試みである。GGPにおいてはモンテカルロ木探索が近年成功を収めているが、そのシミュレーション方策をどのように学習すべきかには未知の部分が多い.本研究ではGGPの枠組みにおいて,方策の「強さ」とバランスという性質に関し着目し,既存の学習手法を組み合わせることで「強さ」とバランスを両立を目指す新たな学習手法を提案する.新たな学習手法は一部のゲームにおいて既存手法よりよい性能を示した.General Game Playing (GGP) is an approach to building a program which can play various games well by interpreting the formal descriptions of their rules. Monte-Carlo tree search has recently been successfully applied in GGP, but it is still largely unknown how the simulation policies should be learned. In this paper, we focus on the strength and balance of policies and propose a new learning method for acquiring policies that are ”strong” and balanced. The experimental results show that the new method performs better than existing methods in some games.AA11362144研究報告ゲーム情報学(GI)2013-GI-293182013-02-252013-02-15