@techreport{oai:ipsj.ixsq.nii.ac.jp:00191723, author = {岡崎, 秀晃 and 小澤, 和也 and 磯貝, 海斗 and 橘, 俊宏 and 中野, 秀夫 and Hideaki, Okazaki and Kazuya, Ozawa and Kaito, Isogai and Toshihiro, Tachibana and Hideo, Nakano}, issue = {18}, month = {Nov}, note = {本報告では,Parametric ReLU (PReLU) 関数を活性化関数として持つニューラルネットワークの多項式関数包囲をいかに構築するか議論する.[12] と類似の 2 入力の入力層,4 ノードの隠れ層,1 出力の出力層からなる 3 層のニューラルネットワーク : 3 層 PReLU NN に注目する.そして,多項式関数 : α₀ + α₁ x₁ + α₂ x₂ +α₃ x₁ x₂ を基礎として,この 3 層 PreLU NN の多項式関数包囲を求める方法を与える., In this report we study how to build a polynomial function enclosure for neural networks (NN) with parametric rectified linear units (PReLU). We focus on a three-layer neural network similar to [12] that has two input nodes, four hidden processing nodes, and a single output node. We give a method to obtain a polynomial function enclosure for the three-layer PReLU NN, based on a polynomial function : α₀ + α₁ x₁ + α₂ x₂ +α₃ x₁ x₂}, title = {Parametric ReLU関数を活性化関数として持つニューラルネットワークの多項式関数包囲を構築する方法}, year = {2018} }