@article{oai:ipsj.ixsq.nii.ac.jp:00239727, author = {葛谷, 直規 and 長尾, 智晴 and Naoki, Kuzuya and Tomoharu, Nagao}, issue = {3}, journal = {情報処理学会論文誌数理モデル化と応用(TOM)}, month = {Sep}, note = {近年,様々な分野でニューラルネットが用いられるようになっている.一方で,ニューラルネットの学習には多大な時間と計算リソース,そして高いスキルが必要となり,開発者の負担になっている.そのため,あらかじめ大規模データセットで学習された学習済みモデルの利用が広がっているが,それらのモデルが所望の精度を満たすとは限らない.そのような場合,さらに精度の良いモデルを探索する必要があり,煩雑で時間がかかる.そこで,一般的な学習済みネットワークのアーキテクチャはそのままに,演算ノードをより柔軟ではあるが機能的には等価なノードに置換し,再学習させることで精度向上を実現させる手法を提案する.具体的には,ネットワーク中の線形変換やRectified Linear Unit(ReLU)活性化関数を,それらの関数の上位集合であるBスプライン関数で置き換えて,再学習を行うことで精度向上させる手法を提案する.いくつかの分類問題で明らかな精度向上を確認した., In recent years, the use of neural networks has become popular in many fields. On the other hand, training neural networks requires a large amount of time, computational resources, and high skills, which places a burden on developers. For this reason, the use of pre-trained models trained in advance on large-scale datasets are widely used. However, the problem is that these models do not always meet the desired accuracy. In such cases, it is necessary to search for a better model, which is cumbersome and time-consuming. Therefore, we propose a method to improve accuracy by replacing the computation nodes of a pre-trained network with more flexible, but functionally equivalent nodes and re-training them, while maintaining the original network architecture. Specifically, we propose a method to improve accuracy by replacing linear transformations and Rectified Linear Unit (ReLU) activation functions with B-spline functions, which are a superset of these functions, and re-training them. We confirmed a significant improvement in accuracy for some classification tasks.}, pages = {13--24}, title = {Bスプライン関数を用いた演算ノード柔軟化による学習済みニューラルネットの精度向上手法}, volume = {17}, year = {2024} }