{"links":{},"metadata":{"_oai":{"id":"oai:ipsj.ixsq.nii.ac.jp:00220976","sets":["6504:11035:11043"]},"path":["11043"],"owner":"44499","recid":"220976","title":["負の報酬を獲得する状況を重視したDeep Q-Networkにおける行動選択法の検討"],"pubdate":{"attribute_name":"公開日","attribute_value":"2022-02-17"},"_buckets":{"deposit":"523520e6-8651-46a5-8b45-5ecb758977b5"},"_deposit":{"id":"220976","pid":{"type":"depid","value":"220976","revision_id":0},"owners":[44499],"status":"published","created_by":44499},"item_title":"負の報酬を獲得する状況を重視したDeep Q-Networkにおける行動選択法の検討","author_link":["578301","578302"],"item_titles":{"attribute_name":"タイトル","attribute_value_mlt":[{"subitem_title":"負の報酬を獲得する状況を重視したDeep Q-Networkにおける行動選択法の検討"}]},"item_keyword":{"attribute_name":"キーワード","attribute_value_mlt":[{"subitem_subject":"人工知能と認知科学","subitem_subject_scheme":"Other"}]},"item_type_id":"22","publish_date":"2022-02-17","item_language":{"attribute_name":"言語","attribute_value_mlt":[{"subitem_language":"jpn"}]},"item_22_text_3":{"attribute_name":"著者所属","attribute_value_mlt":[{"subitem_text_value":"東京工科大"},{"subitem_text_value":"東京工科大"}]},"item_publisher":{"attribute_name":"出版者","attribute_value_mlt":[{"subitem_publisher":"情報処理学会","subitem_publisher_language":"ja"}]},"publish_status":"0","weko_shared_id":-1,"item_file_price":{"attribute_name":"Billing file","attribute_type":"file","attribute_value_mlt":[{"url":{"url":"https://ipsj.ixsq.nii.ac.jp/record/220976/files/IPSJ-Z84-7S-07.pdf","label":"IPSJ-Z84-7S-07.pdf"},"date":[{"dateType":"Available","dateValue":"2022-10-22"}],"format":"application/pdf","filename":"IPSJ-Z84-7S-07.pdf","filesize":[{"value":"155.9 kB"}],"mimetype":"application/pdf","accessrole":"open_date","version_id":"1b0edbe1-4a82-4805-bdd7-a064420c0e4f","displaytype":"detail","licensetype":"license_note","license_note":"Copyright (c) 2022 by the Information Processing Society of Japan"}]},"item_22_creator_5":{"attribute_name":"著者名","attribute_type":"creator","attribute_value_mlt":[{"creatorNames":[{"creatorName":"工藤, 冬威"}],"nameIdentifiers":[{}]},{"creatorNames":[{"creatorName":"長名, 優子"}],"nameIdentifiers":[{}]}]},"item_resource_type":{"attribute_name":"資源タイプ","attribute_value_mlt":[{"resourceuri":"http://purl.org/coar/resource_type/c_5794","resourcetype":"conference paper"}]},"item_22_source_id_9":{"attribute_name":"書誌レコードID","attribute_value_mlt":[{"subitem_source_identifier":"AN00349328","subitem_source_identifier_type":"NCID"}]},"item_22_description_7":{"attribute_name":"論文抄録","attribute_value_mlt":[{"subitem_description":"Q Learningの行動価値をDeep Learningの代表的な手法である畳み込みニューラルネットワークを使用して学習するDeep Q-Networkに関する研究が行われている。そのような研究の一つとして負の報酬を獲得する状況を重視したDeep Q-Networkが提案されている。この手法では、行動価値を負の報酬を獲得する可能性のある状況とそれ以外の状況に分けて学習し、それらを状況に応じて使い分けることで、負の報酬を獲得する状況を重視した学習や行動を行うことができる。負の報酬を獲得しないことが重要な問題では、正の報酬を最大化することのみを重視して行われる従来の方法よりも有効な場合があり、障害物回避問題において有効性が確認されている。この手法では、行動選択法としてε-greedy法が用いられているが、それ以外の以外の行動選択法を用いた場合についての検討は行われていない。そこで、本研究では、負の報酬を獲得する状況を重視したDeep Q-Networkにおける行動選択法の検討を行う。","subitem_description_type":"Other"}]},"item_22_biblio_info_10":{"attribute_name":"書誌情報","attribute_value_mlt":[{"bibliographicPageEnd":"470","bibliographic_titles":[{"bibliographic_title":"第84回全国大会講演論文集"}],"bibliographicPageStart":"469","bibliographicIssueDates":{"bibliographicIssueDate":"2022-02-17","bibliographicIssueDateType":"Issued"},"bibliographicIssueNumber":"1","bibliographicVolumeNumber":"2022"}]},"relation_version_is_last":true,"weko_creator_id":"44499"},"created":"2025-01-19T01:20:59.708603+00:00","updated":"2025-01-19T14:20:55.696178+00:00","id":220976}