2024-03-29T09:27:34Zhttps://ipsj.ixsq.nii.ac.jp/ej/?action=repository_oaipmhoai:ipsj.ixsq.nii.ac.jp:000111182022-10-21T05:24:51Z00581:00651:00654
線形変数変換に不変な自乗値ペナルティ項の構成法Squared Penalty Consistent with Linear Transformations of Variablesjpn論文http://id.nii.ac.jp/1001/00011118/Journal Articlehttps://ipsj.ixsq.nii.ac.jp/ej/?action=repository_action_common_download&item_id=11118&item_no=1&attribute_id=1&file_no=1Copyright (c) 2003 by the Information Processing Society of Japan知識処理NTTコミュニケーション科学基礎研究所名古屋工業大学知能情報システム学科斉藤, 和巳中野, 良平オリジナルスケールと変数変換を施した双方のデータで,2つのニューラルネットの学習を行うとき,その学習が不変とは,適用した変数変換に応じてニューラルネット重みを変換すれば,つねに同値なニューラルネットが学習結果として得られることを意味する.ペナルティ付き学習の場合には,ニューラルネット重みだけでなく,ペナルティ変数群の学習に対する不変性も考慮しなければならない.本稿では,これらの問題設定に基づき,線形変数変換に不変な自乗値ペナルティ項の構成法に関する理論的枠組みを提案し,その正当性を証明した.指数が整数に限定されない多項式型法則をニューラルネット学習で発見する問題への適用実験では,データが不要な説明変数を含み,かつ,ある程度のノイズを含む場合でも,提案したペナルティ項を用いれば,線形変数変換に不変となることを確認した.If we train one neural network using original data and another network using data whose variables are transformed from the original,then consistency requires that we should obtain equivalent networks whose sets of weights can be changed to each other through the corresponding transformations.When networks are trained so as to minimize a penalized objective function,we must consider such a set of penalty factors that guarantees the consistency.For this purpose,we propose a theoretical framework for constructing squared penalty terms consistent with linear transformations of variables,and prove its plausibility.In our experiments concerning a numeric law discovery problem formulated as learning in neural networks,it was confirmed that such a penalty term can be consistent with a linear transformation of variables.AN00116647情報処理学会論文誌4410249525022003-10-151882-77642009-06-29