@techreport{oai:ipsj.ixsq.nii.ac.jp:00207918,
 author = {小澤, 和也 and 磯貝, 海斗 and 岡崎, 秀晃 and Kazuya, Ozawa and Kaito, Isogai and Hideaki, Okazaki},
 issue = {16},
 month = {Nov},
 note = {ReLUs 関数を持つディープニューラルネットワークの一連の成功以来,ReLUs 関数や Rectified power units (RePUs) を有するニューラルネットワークによる多くの近似が注目を集めてきた.さらに深層の Residual network は Identity mappings を skip connections とその後の加え合わせを活性化関数として用いることで優れた学習精度と収束特性をもつ非常に深層なアーキテクチャの一つとして登場している.本論文では power units(PU)をもつ NN と ReLUs をもつ NN の出力の差を別の NN の入力として与え,その出力に skip connection を用いて PU の出力を加えることで pseudo residual network (PResN) モデルを構築し,PResN による多項式の近似について議論する., Since a series of successes of Deep neural networks (DNNs) with rectified linear units (ReLUs), many approximations by NNs with ReLUs, or rectified power units (RePUs) have been focused on. Further deep residual networks have emerged as a family of extremely deep architectures showing compelling accuracy and nice convergence behaviors, when using identity mappings as the skip connections and after-addition activation. In this paper, approximating polynomials by a pseudo residual network (PResN) such as a NN with power units (PUs) – a NN with ReLUs + another NN with ReLUs when using identity mappings as the skip connections of the former NN with PUs and after-addition activation, is discussed.},
 title = {べき乗活性化関数を持つ擬残差ニューラルネットワークによる多項式近似について},
 year = {2020}
}