@techreport{oai:ipsj.ixsq.nii.ac.jp:00218577, author = {飯田, 昌澄 and 武石, 啓成 and 竹内, 純一 and Masazumi, Iida and Yoshinari, Takeishi and Jun’ichi, Takeuchi}, issue = {7}, month = {Jun}, note = {隠れ層 1 層の単純なニューラルネットワークにおける最終層の重みのフィッシャー情報行列を議論する.武石ら(2021)は活性化関数として Rectified Linear Unit (ReLU) を用いたときの近似的な固有値分解を導出した.一方飯田ら(2022)はソフトプラス関数を用いたときに ReLU の場合と似た形式の分解を示したが,この結果を得るためにソフトプラス関数の急峻さに制限をおいていた.本稿では,ネットワークの入力分布を変更することで,そうした制限をおかなくてもほぼ同等の結果が成り立つことを示す.}, title = {単純なソフトプラスニューラルネットワークにおけるフィッシャー情報行列の分解条件の緩和}, year = {2022} }