@techreport{oai:ipsj.ixsq.nii.ac.jp:00191724,
 author = {小澤, 和也 and 橘, 俊宏 and 中野, 秀夫 and 岡崎, 秀晃 and Kazuya, Ozawa and Toshihiro, Tachibana and Hideo, Nakano and Hideaki, Okazaki},
 issue = {19},
 month = {Nov},
 note = {本報告では活性化関数として ReLU 関数と PReLU 関数を持つニューラルネットワークによる多項式関数近似の学習について論じる.またデイープラーニングを扱うための環境構築の方法についてまとめた., In this report we discuss learnings of a polynomial function approximation by a neural network with rectified linear units (ReLU), or parametric rectified linear units (PReLU). In addition we summarize a method to build a computing environment for deep leaming.},
 title = {Prametric ReLU関数を活性化関数として持つニューラルネットワークによる多項式関数近似について},
 year = {2018}
}