{"id":128096,"updated":"2025-01-21T01:04:55.963522+00:00","links":{},"created":"2025-01-19T00:07:30.525142+00:00","metadata":{"_oai":{"id":"oai:ipsj.ixsq.nii.ac.jp:00128096","sets":["6504:8089:8090"]},"path":["8090"],"owner":"1","recid":"128096","title":["汎化を考慮した確率モデルの学習について"],"pubdate":{"attribute_name":"公開日","attribute_value":"1995-09-20"},"_buckets":{"deposit":"ea9f89fc-48af-4b8a-a0d1-3b4211721e40"},"_deposit":{"id":"128096","pid":{"type":"depid","value":"128096","revision_id":0},"owners":[1],"status":"published","created_by":1},"item_title":"汎化を考慮した確率モデルの学習について","author_link":[],"item_titles":{"attribute_name":"タイトル","attribute_value_mlt":[{"subitem_title":"汎化を考慮した確率モデルの学習について"},{"subitem_title":"A Note on Learning Theory for Probabilistic Models","subitem_title_language":"en"}]},"item_type_id":"22","publish_date":"1995-09-20","item_language":{"attribute_name":"言語","attribute_value_mlt":[{"subitem_language":"jpn"}]},"item_22_text_3":{"attribute_name":"著者所属","attribute_value_mlt":[{"subitem_text_value":"早稲田大学 理工学部 工業経営学科"},{"subitem_text_value":"早稲田大学 理工学部 工業経営学科"},{"subitem_text_value":"早稲田大学 理工学部 工業経営学科"}]},"item_22_text_4":{"attribute_name":"著者所属(英)","attribute_value_mlt":[{"subitem_text_value":"School of Science and Engineering, Department of Industrial Engineering and Management, Waseda University","subitem_text_language":"en"},{"subitem_text_value":"School of Science and Engineering, Department of Industrial Engineering and Management, Waseda University","subitem_text_language":"en"},{"subitem_text_value":"School of Science and Engineering, Department of Industrial Engineering and Management, Waseda University","subitem_text_language":"en"}]},"item_publisher":{"attribute_name":"出版者","attribute_value_mlt":[{"subitem_publisher":"情報処理学会","subitem_publisher_language":"ja"}]},"publish_status":"0","weko_shared_id":-1,"item_file_price":{"attribute_name":"Billing file","attribute_type":"file","attribute_value_mlt":[{"url":{"url":"https://ipsj.ixsq.nii.ac.jp/record/128096/files/KJ00001334365.pdf"},"date":[{"dateType":"Available","dateValue":"1995-09-20"}],"format":"application/pdf","filename":"KJ00001334365.pdf","filesize":[{"value":"191.3 kB"}],"mimetype":"application/pdf","accessrole":"open_date","version_id":"29c55195-0331-4706-9524-ba1ab7892f02","displaytype":"detail","licensetype":"license_note"}]},"item_resource_type":{"attribute_name":"資源タイプ","attribute_value_mlt":[{"resourceuri":"http://purl.org/coar/resource_type/c_5794","resourcetype":"conference paper"}]},"item_22_source_id_9":{"attribute_name":"書誌レコードID","attribute_value_mlt":[{"subitem_source_identifier":"AN00349328","subitem_source_identifier_type":"NCID"}]},"item_22_description_7":{"attribute_name":"論文抄録","attribute_value_mlt":[{"subitem_description":"学習データから情報源の確率構造を学習する場合,その結果は学習データに依存するので,何らかの方法で学習データから真の構造に近い確率モデルを推定する必要がある.そのための方法として,適切な次数のモデルを選択する方法があり,AICやMDLなどの情報量規準が提案されている.AICは期待平均対数尤度最大のモデルを選択することにより,KL情報量の意味で真の構造に近い確率モデルを選択しようとする.MDLは,データの記述長とモデルの記述長の和を最小にするモデルを選択するという規準である.しかし,AICでは評価できない項を無視していることや一致性がないことが指摘されている.MDLではパラメータを量子化する部分が粗い議論であるために,記述長最小という評価規準は密には達成されていない.本稿では,情報源符号化において最近注目されているベイズ符号をモデル選択に応用することを考える.そして,ベイズ決定理論に基づき,次のシンボルを予測符号化したときのベイズ符号長を最小にするという意味で,漸近的に最適なモデルを選択する情報量規準を提案する.","subitem_description_type":"Other"}]},"item_22_biblio_info_10":{"attribute_name":"書誌情報","attribute_value_mlt":[{"bibliographicPageEnd":"20","bibliographic_titles":[{"bibliographic_title":"全国大会講演論文集"}],"bibliographicPageStart":"19","bibliographicIssueDates":{"bibliographicIssueDate":"1995-09-20","bibliographicIssueDateType":"Issued"},"bibliographicIssueNumber":"基礎理論と基礎技術","bibliographicVolumeNumber":"第51回"}]},"relation_version_is_last":true,"weko_creator_id":"1"}}