ログイン 新規登録
言語:

WEKO3

  • トップ
  • ランキング
To
lat lon distance
To

Field does not validate



インデックスリンク

インデックスツリー

メールアドレスを入力してください。

WEKO

One fine body…

WEKO

One fine body…

アイテム

  1. 研究報告
  2. アルゴリズム(AL)
  3. 2023
  4. 2023-AL-195

時相論理仕様を満足するマルチエージェントシステムの深層強化学習

https://ipsj.ixsq.nii.ac.jp/records/228936
https://ipsj.ixsq.nii.ac.jp/records/228936
2528d7fa-8f83-4ea0-b7fa-0a042477ab9a
名前 / ファイル ライセンス アクション
IPSJ-AL23195016.pdf IPSJ-AL23195016.pdf (1.1 MB)
Copyright (c) 2023 by the Institute of Electronics, Information and Communication Engineers This SIG report is only available to those in membership of the SIG.
AL:会員:¥0, DLIB:会員:¥0
Item type SIG Technical Reports(1)
公開日 2023-11-09
タイトル
タイトル 時相論理仕様を満足するマルチエージェントシステムの深層強化学習
タイトル
言語 en
タイトル Deep Reinforcement Learning for Multi-Agent Systems with Temporal Logic Specifications
言語
言語 jpn
資源タイプ
資源タイプ識別子 http://purl.org/coar/resource_type/c_18gh
資源タイプ technical report
著者所属
北海道大学
著者所属
北海道大学
著者所属
北海道大学
著者所属(英)
en
Hokkaido University
著者所属(英)
en
Hokkaido University
著者所属(英)
en
Hokkaido University
著者名 寺嶋, 啓太

× 寺嶋, 啓太

寺嶋, 啓太

Search repository
小林, 孝一

× 小林, 孝一

小林, 孝一

Search repository
山下, 裕

× 山下, 裕

山下, 裕

Search repository
著者名(英) Keita, Terashima

× Keita, Terashima

en Keita, Terashima

Search repository
Koichi, Kobayashi

× Koichi, Kobayashi

en Koichi, Kobayashi

Search repository
Yuh, Yamashita

× Yuh, Yamashita

en Yuh, Yamashita

Search repository
論文抄録
内容記述タイプ Other
内容記述 マルチエージェントシステムでは,共通目標の達成のためにエージェント群が如何に協調した行動をとるかが課題となる.著者らは以前に,時相論理仕様を満たす協調型マルチエージェント強化学習法を提案した.アグリゲータを導入した分散的な学習手法によって,エージェント数の増加に伴う状態空間爆発および学習効率の低下という問題点を解消した.本論文では,この手法に深層強化学習を適用する.その際,表形式の評価関数を用いた強化学習法では実装が困難な連続状態空間の環境を対象とした学習を行う.その後,連続空間で表された監視問題を例として,深層強化学習におけるアグリゲータの効果を検証する.
論文抄録(英)
内容記述タイプ Other
内容記述 In multi-agent systems, the challenge is how a group of agents collaborate to achieve a common goal. In our previous work, we propose cooperative multi-agent reinforcement learning methods with temporal logic specifications. The distributed method with an aggregator solves the technical issues of state-space explosion and low learning efficiency as the number of agents grows. In this paper, we apply deep reinforcement learning to our methods. We consider learning methods for continuous state-space environments, which are difficult to implement in reinforcement learning methods using a table-style evaluation function. Then, we verify the effectiveness of an aggregator in deep reinforcement learning using an example of a surveillance problem represented in a continuous space.
書誌レコードID
収録物識別子タイプ NCID
収録物識別子 AN1009593X
書誌情報 研究報告アルゴリズム(AL)

巻 2023-AL-195, 号 16, p. 1-5, 発行日 2023-11-09
ISSN
収録物識別子タイプ ISSN
収録物識別子 2188-8566
Notice
SIG Technical Reports are nonrefereed and hence may later appear in any journals, conferences, symposia, etc.
出版者
言語 ja
出版者 情報処理学会
戻る
0
views
See details
Views

Versions

Ver.1 2025-01-19 11:39:57.921614
Show All versions

Share

Mendeley Twitter Facebook Print Addthis

Cite as

エクスポート

OAI-PMH
  • OAI-PMH JPCOAR
  • OAI-PMH DublinCore
  • OAI-PMH DDI
Other Formats
  • JSON
  • BIBTEX

Confirm


Powered by WEKO3


Powered by WEKO3