| Item type |
Symposium(1) |
| 公開日 |
2024-11-15 |
| タイトル |
|
|
タイトル |
デッキ構築型カードゲーム Dominionにおいて多様なカードセットに対応可能な agent |
| タイトル |
|
|
言語 |
en |
|
タイトル |
An agent for the deck-building card game Dominion that adapts to various card sets |
| 言語 |
|
|
言語 |
jpn |
| キーワード |
|
|
主題Scheme |
Other |
|
主題 |
機械学習 |
| キーワード |
|
|
主題Scheme |
Other |
|
主題 |
ニューラルネットワーク |
| キーワード |
|
|
主題Scheme |
Other |
|
主題 |
デッキ構築型カードゲーム |
| 資源タイプ |
|
|
資源タイプ識別子 |
http://purl.org/coar/resource_type/c_5794 |
|
資源タイプ |
conference paper |
| 著者所属 |
|
|
|
九州大学大学院システム情報科学府 |
| 著者所属 |
|
|
|
九州大学大学院システム情報科学府 |
| 著者所属(英) |
|
|
|
en |
|
|
Graduate School and Faculty of Information Science and Electrical Engineering, Kyushu University |
| 著者所属(英) |
|
|
|
en |
|
|
Graduate School and Faculty of Information Science and Electrical Engineering, Kyushu University |
| 著者名 |
吉村, 智陽
美添, 一樹
|
| 著者名(英) |
Tomoya, Yoshimura
Kazuki, Yoshizoe
|
| 論文抄録 |
|
|
内容記述タイプ |
Other |
|
内容記述 |
機械学習のゲームへの適用は盛んに行われているが、その中では多人数ゲーム・不完全情報ゲームの分野は発展の余地がある。本研究ではデッキ構築型であり、また用いるカードセットがプレイごとに変化する特徴を持つ Dominion を題材とする。このカードセットは数百万以上があり得るため、全てを学習対象とすると膨大な時間が必要となる。ゲームの知識を元にできるだけ多様な戦術が有効に働く少数のカードセットでモデルを訓練し、学習対象でないカードセットにおいて対戦実験を行った。モデルには LSTMを用い、 A3C をベースにした自己対戦に基づく強化学習手法により訓練した。実験の結果として少数のカードセットを適切に選択することで、学習したモデルは訓練時には使用しなかったカードセットにおいても勝率が向上した。これにより現実的な時間の学習での多様なカードセットに対して汎用的な強さを持つモデルの構築につながることが期待できる。 |
| 論文抄録(英) |
|
|
内容記述タイプ |
Other |
|
内容記述 |
The application of machine learning to games is thriving. However, there is room for development in multiplayer and incomplete information games. This paper focuses on Dominion, a deck-building game that uses different card sets from play to play. Since there are more than several million possible card sets, applying machine learning to all of them would take an enormous amount of time. Based on the domain knowledge of the game we selected a small number of card sets in which various tactics are effective. Then we trained machine learning models on these card sets and measured the strength of the models on other card sets that were not included in the training environment. The models are based on LSTM and trained with a reinforcement learning method based on self-play using A3C. The experimental results show that by appropriately selecting a small number of card sets, the trained models improve their win rates even on card sets not used during training. The experimental results are promising for constructing models with generic strength for various card sets in realistic training time. |
| 書誌情報 |
ゲームプログラミングワークショップ2024論文集
巻 2024,
p. 72-79,
発行日 2024-11-15
|
| 出版者 |
|
|
言語 |
ja |
|
出版者 |
情報処理学会 |