ログイン 新規登録
言語:

WEKO3

  • トップ
  • ランキング
To
lat lon distance
To

Field does not validate



インデックスリンク

インデックスツリー

メールアドレスを入力してください。

WEKO

One fine body…

WEKO

One fine body…

アイテム

  1. シンポジウム
  2. シンポジウムシリーズ
  3. ゲームプログラミングワークショップ(GPWS)
  4. 2024

局所的な説明を用いた説明可能なパズルゲーム AI

https://ipsj.ixsq.nii.ac.jp/records/240741
https://ipsj.ixsq.nii.ac.jp/records/240741
6f9a96e6-dee7-49cd-8096-a90bd088a34c
名前 / ファイル ライセンス アクション
IPSJ-GPWS2024023.pdf IPSJ-GPWS2024023.pdf (839.1 kB)
Copyright (c) 2024 by the Information Processing Society of Japan
オープンアクセス
Item type Symposium(1)
公開日 2024-11-15
タイトル
タイトル 局所的な説明を用いた説明可能なパズルゲーム AI
タイトル
言語 en
タイトル Explainable Puzzle Game AI using Local Explanation
言語
言語 jpn
キーワード
主題Scheme Other
主題 説明可能なAI
キーワード
主題Scheme Other
主題 局所的な説明
キーワード
主題Scheme Other
主題 ゲームAI
資源タイプ
資源タイプ識別子 http://purl.org/coar/resource_type/c_5794
資源タイプ conference paper
著者所属
東京大学大学院情報理工学系研究科電子情報学専攻
著者所属
東京大学大学院情報理工学系研究科電子情報学専攻
著者所属(英)
en
Graduate School of Information Science and Technology, The University of Tokyo
著者所属(英)
en
Graduate School of Information Science and Technology, The University of Tokyo
著者名 岩佐, 拓真

× 岩佐, 拓真

岩佐, 拓真

Search repository
鶴岡, 慶雅

× 鶴岡, 慶雅

鶴岡, 慶雅

Search repository
著者名(英) Takuma, Iwasa

× Takuma, Iwasa

en Takuma, Iwasa

Search repository
Yoshimasa, Tsuruoka

× Yoshimasa, Tsuruoka

en Yoshimasa, Tsuruoka

Search repository
論文抄録
内容記述タイプ Other
内容記述 説明可能な AI は, 機械学習モデルが入力を受けてから出力が出るまでのプロセスを人間にも理解できるようにする技術である . ゲーム AI の分野においても , ディープラーニングの問題点として, 判断の根拠を示せないことが挙げられており , このような課題を解決するために様々なアプローチが行われている . 本研究ではゲーム AI がどのような戦略に基づいて行動を決定しているのかを説明可能なシステムを実現することを目的とする . ゲーム中の行動それぞれに対して個別に説明を行う局所的な説明手法は既に存在するが, 本手法では AI の行動に対する個別の説明を統合することによって AI の行動全体の傾向を大局的に説明する手法を提案し, その有効性を検証する . 実験では離散グリッドワールド環境で学習を行った AI に提案手法を適用し, AI の行動の傾向を時間的な変化とともに説明することができた. 提案手法はゲーム中の行動全体を統合し, 時間的な変化も捉えて説明を行うことができるため, パズルゲームのような行動の前後関係が重要となる環境においてより効果的に説明を行えると考えられる . 今後はより幅広い環境に対して適用できるよう , 手法を改善していきたいと考えている .
論文抄録(英)
内容記述タイプ Other
内容記述 Explainable AI is a technology that allows humans to understand the process by which a machine learning model receives input and produces output. In the field of game AI, one of the problems with deep learning is that it is unable to provide evidence for its decisions. Various approaches have been taken to solve this problem. The objective of this research is to realize a system that can explain what kind of strategy a game AI uses to decide its actions. While local explanations for each action in a game already exist, we propose a method to explain the overall rend of AI’s actions by integrating individual explanations for actions, and verify the effectiveness of the proposed method. In our experiments, we applied the proposed method to an AI trained in a discrete grid world environment, and were able to explain the trend of the AI’s actions with temporal changes. Since the proposed method integrates all the actions in the game and can explain them with temporal changes, it is considered to be more effective in environments such as puzzle games, where the pre- and post-relationships of the actions are important. In the future, we intend to improve our method so that it can be applied to a wider range of environments.
書誌情報 ゲームプログラミングワークショップ2024論文集

巻 2024, p. 158-165, 発行日 2024-11-15
出版者
言語 ja
出版者 情報処理学会
戻る
0
views
See details
Views

Versions

Ver.1 2025-01-19 07:52:51.446516
Show All versions

Share

Mendeley Twitter Facebook Print Addthis

Cite as

エクスポート

OAI-PMH
  • OAI-PMH JPCOAR
  • OAI-PMH DublinCore
  • OAI-PMH DDI
Other Formats
  • JSON
  • BIBTEX

Confirm


Powered by WEKO3


Powered by WEKO3