ログイン 新規登録
言語:

WEKO3

  • トップ
  • ランキング
To
lat lon distance
To

Field does not validate



インデックスリンク

インデックスツリー

メールアドレスを入力してください。

WEKO

One fine body…

WEKO

One fine body…

アイテム

  1. 研究報告
  2. 数理モデル化と問題解決(MPS)
  3. 2011
  4. 2011-MPS-085

強化学習を用いたチーム編成の効率化モデルの提案と環境変化に対する評価

https://ipsj.ixsq.nii.ac.jp/records/77368
https://ipsj.ixsq.nii.ac.jp/records/77368
eaf897c4-4380-4dba-b829-fff30358f5c2
名前 / ファイル ライセンス アクション
IPSJ-MPS11085028.pdf IPSJ-MPS11085028.pdf (1.1 MB)
Copyright (c) 2011 by the Information Processing Society of Japan
オープンアクセス
Item type SIG Technical Reports(1)
公開日 2011-09-08
タイトル
タイトル 強化学習を用いたチーム編成の効率化モデルの提案と環境変化に対する評価
タイトル
言語 en
タイトル Efficient Team Formation based on Learning and Reorganization and Influence of Change of Tasks
言語
言語 jpn
資源タイプ
資源タイプ識別子 http://purl.org/coar/resource_type/c_18gh
資源タイプ technical report
著者所属
早稲田大学基幹理工学研究科情報理工学専攻
著者所属
早稲田大学基幹理工学研究科情報理工学専攻
著者名 佐藤, 大樹 菅原, 俊治

× 佐藤, 大樹 菅原, 俊治

佐藤, 大樹
菅原, 俊治

Search repository
著者名(英) Daiki, Satoh Sugawara, Toshiharu

× Daiki, Satoh Sugawara, Toshiharu

en Daiki, Satoh
Sugawara, Toshiharu

Search repository
論文抄録
内容記述タイプ Other
内容記述 インターネット上のサービスに対応したタスクは,それを構成する複数のサブタスクを処理することで達成される.効率的なタスク処理のためには,サブタスクを対応する能力やリソースを持つエージェントに適切に割り当てる必要がある.我々はこれまで,強化学習とネットワーク構造の再構成により,チーム編成を効率化する手法を提案してきた.しかし,そこで用いた学習は,近隣のエージェントの内部状態を既知としており,必ずしも現実のシステムと合致しない.また,実験で仮定したエージェントの配置も固定的であった.本論文では,提案手法を,他のエージェントの内部状態ではなく,近隣からのメッセージと遅延を考慮した減衰率から報酬を求め,それに基づいて Q 学習するようにモデル化する.次に,初期配置によらず,学習と組織構造の変化を組み合わせ既存手法よりも効率化できることを示す.さらに,タスクの種類の変化についても,効率的なチーム編成が可能なことを実験により評価する.
論文抄録(英)
内容記述タイプ Other
内容記述 A task in a distributed environment is usually achieved by doing a number of subtasks that require different functions and resources. These subtasks have to be processed cooperatively in the appropriate team of agents that have the required functions with sufficient resources. We showed that the proposed method combines the learning for team formation and reorganization in a way that is adaptive to the environment and that it can improve the overall performance and increase the success in communication delay that may change dynamically. But the machine learning that we used there knows inside state of neighborhood agents and this cannot be assumed in real systems. We propose a method of distributed team formation that uses modified Q-learning with reward based in messages from neighborhood and communication delay. We show that it can improve the overall performance in any initial placement and in environment change of range of task.
書誌レコードID
収録物識別子タイプ NCID
収録物識別子 AN10505667
書誌情報 研究報告数理モデル化と問題解決(MPS)

巻 2011-MPS-85, 号 28, p. 1-6, 発行日 2011-09-08
Notice
SIG Technical Reports are nonrefereed and hence may later appear in any journals, conferences, symposia, etc.
出版者
言語 ja
出版者 情報処理学会
戻る
0
views
See details
Views

Versions

Ver.1 2025-01-21 20:58:36.610385
Show All versions

Share

Mendeley Twitter Facebook Print Addthis

Cite as

エクスポート

OAI-PMH
  • OAI-PMH JPCOAR
  • OAI-PMH DublinCore
  • OAI-PMH DDI
Other Formats
  • JSON
  • BIBTEX

Confirm


Powered by WEKO3


Powered by WEKO3