@inproceedings{oai:ipsj.ixsq.nii.ac.jp:00199977,
 author = {中屋敷, 太一 and 金子 知適 and Taichi, Nakayashiki and Tomoyuki Kaneko},
 book = {ゲームプログラミングワークショップ2019論文集},
 month = {Nov},
 note = {AlphaZero は同一のアルゴリズムで強いプレイヤを作成できることを将棋,チェス,そして囲碁の3 つのゲームのそれぞれで示した.しかし AlphaZero の手法は,どのくらいの学習でどのくらい強くなるかなどを理論的に解析することは難しく,プレイヤ強さを測るには実験的に行うしかない.本稿ではAlphaZero の手法で学習を行ったニューラルネットワークがどの程度正しい判断をしているかを,すでに完全解析されたゲームであるどうぶつしょうぎを用いて,完全解析結果と比較し測定した.また異なる大きさのニューラルネットワークを用いて実験を行い,ニューラルネットワークの大きさによる影響を測定した.さらに完全解析結果を用いた教師あり学習も行い,ニューラルネットワークの大きさそのものによる性能比較も行った.最後に AlphaZero が指し手決定の際に用いている探索アルゴリズムである.Monte-Carlo Tree Search について,そのハイパーパラメータによる違いを簡単に調査した.実験の結果,教師あり学習の場合には大きいニューラルネットワークほどよい性能である一方で,AlphaZero の手法で用いる際には必ずしもそうではないことを示した.また Monte-Carlo Tree Search のハイパーパラメータによって探索の挙動が大きく変わることを示した., AlphaZero succeeded to make a strong player with its alrogithm on each game of Shogi (Japanese chess), Chess and Go. However, it is a hard work to analyze the relationship between learning amount and strength of AlphaZero theoretically, so experiments are needed to measure its strength. In this paper, we investigate performance of neural networks which trained in AlphaZero algorithm via Dobutsu Shogi that has already solved, comparing solved data. We trained neural networks of different sizes and compare them. Then we conduct supervised learning on neural networks of several sizes with solved data and compare the difference among them. Finally, using Monte-Carlo Tree Search that is used when AlphaZero decides the next move, we investigate effects of its hyper parameter. As a result, we found that larger neural networks have better performance in supervised learning of our experiments. On the other hand, larger neural networks can be worse in AlphaZero algorithm. Subsequently, we found that the hyper parameter is not negligible for its behavior.},
 pages = {86--93},
 publisher = {情報処理学会},
 title = {どうぶつしょうぎを用いたAlphaZeroの手法の調査},
 volume = {2019},
 year = {2019}
}