<?xml version='1.0' encoding='UTF-8'?>
<OAI-PMH xmlns="http://www.openarchives.org/OAI/2.0/" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http://www.openarchives.org/OAI/2.0/ http://www.openarchives.org/OAI/2.0/OAI-PMH.xsd">
  <responseDate>2026-04-17T16:31:42Z</responseDate>
  <request verb="GetRecord" metadataPrefix="oai_dc" identifier="oai:ipsj.ixsq.nii.ac.jp:00209859">https://ipsj.ixsq.nii.ac.jp/oai</request>
  <GetRecord>
    <record>
      <header>
        <identifier>oai:ipsj.ixsq.nii.ac.jp:00209859</identifier>
        <datestamp>2025-01-19T18:22:01Z</datestamp>
        <setSpec>1164:5305:10533:10534</setSpec>
      </header>
      <metadata>
        <oai_dc:dc xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:oai_dc="http://www.openarchives.org/OAI/2.0/oai_dc/" xmlns="http://www.w3.org/2001/XMLSchema" xsi:schemaLocation="http://www.openarchives.org/OAI/2.0/oai_dc/ http://www.openarchives.org/OAI/2.0/oai_dc.xsd">
          <dc:title>ボンバーマンAIの強化学習における新手法の提案</dc:title>
          <dc:title>A New Method for Reinforcement Learning of Bomberman AI</dc:title>
          <dc:creator>安藤, 優希</dc:creator>
          <dc:creator>橋本, 剛</dc:creator>
          <dc:creator>Yuki, Ando</dc:creator>
          <dc:creator>Tsuyoshi, Hashimoto</dc:creator>
          <dc:subject>強いAIプレイヤ1</dc:subject>
          <dc:description>機械学習によるゲームAIの進歩は目覚ましく，ビデオゲームの分野では多くのゲームで強化学習AIが人間上回る結果を出している．その一方で，強化学習に人間の熟達過程を模倣する手法にも目が向けられている．人間のゲームの熟達過程として視野が広がってくるというものが挙げられるため，今回は狭い盤面から始め，徐々に大きくしていく「反復広化」という手法を提案する．ボンバーマンによく似たゲームであるPommermanを題材として反復広化の比較実験を行った結果，反復広化を用いなかったエージェントは敵を倒すことを学べなかったが，反復広化を用いたエージェントは敵を倒すことを学んだ．</dc:description>
          <dc:description>In the field of video games, reinforcement learning AI has outperformed humans in many games. On the other hand, reinforcement learning methods that mimic the human mastery process are also attracting attention. The process of human proficiency in games involves expanding the field of view. A comparison of iterative widening was conducted using Pommerman, a game similar to Bomberman. As a result, the agents without iterative widening did not learn to defeat the enemy, while the agents with iterative widening learned to defeat the enemy.</dc:description>
          <dc:description>technical report</dc:description>
          <dc:publisher>情報処理学会</dc:publisher>
          <dc:date>2021-02-26</dc:date>
          <dc:format>application/pdf</dc:format>
          <dc:identifier>研究報告ゲーム情報学（GI）</dc:identifier>
          <dc:identifier>10</dc:identifier>
          <dc:identifier>2021-GI-45</dc:identifier>
          <dc:identifier>1</dc:identifier>
          <dc:identifier>5</dc:identifier>
          <dc:identifier>2188-8736</dc:identifier>
          <dc:identifier>AA11362144</dc:identifier>
          <dc:identifier>https://ipsj.ixsq.nii.ac.jp/record/209859/files/IPSJ-GI21045010.pdf</dc:identifier>
          <dc:language>jpn</dc:language>
        </oai_dc:dc>
      </metadata>
    </record>
  </GetRecord>
</OAI-PMH>
