WEKO3
アイテム
アンサンブル自己生成ニューラルネットワークのための高速枝刈り法
https://ipsj.ixsq.nii.ac.jp/records/17296
https://ipsj.ixsq.nii.ac.jp/records/1729646849c69-a631-4155-b964-d26fa9766bca
名前 / ファイル | ライセンス | アクション |
---|---|---|
![]() |
Copyright (c) 2002 by the Information Processing Society of Japan
|
|
オープンアクセス |
Item type | Trans(1) | |||||||
---|---|---|---|---|---|---|---|---|
公開日 | 2002-09-15 | |||||||
タイトル | ||||||||
タイトル | アンサンブル自己生成ニューラルネットワークのための高速枝刈り法 | |||||||
タイトル | ||||||||
言語 | en | |||||||
タイトル | A Fast Pruning Method for Ensemble Self - generating Neural Networks | |||||||
言語 | ||||||||
言語 | jpn | |||||||
キーワード | ||||||||
主題Scheme | Other | |||||||
主題 | オリジナル論文 | |||||||
資源タイプ | ||||||||
資源タイプ識別子 | http://purl.org/coar/resource_type/c_6501 | |||||||
資源タイプ | journal article | |||||||
著者所属 | ||||||||
岡山理科大学大学院工学研究科/現在,呉工業高等専門学校電気情報工学科 | ||||||||
著者所属 | ||||||||
岡山理科大学工学部情報工学科 | ||||||||
著者所属(英) | ||||||||
en | ||||||||
Graduate School of Engineering, Okayama University of Science/Presently with Department of Electrical Engineering and Information Science, Kure National College of Technology | ||||||||
著者所属(英) | ||||||||
en | ||||||||
Department of Information & Computer Engineering, Faculty of Engineering, Okayama University of Science | ||||||||
著者名 |
井上, 浩孝
× 井上, 浩孝
|
|||||||
著者名(英) |
Hirotaka, Inoue
× Hirotaka, Inoue
|
|||||||
論文抄録 | ||||||||
内容記述タイプ | Other | |||||||
内容記述 | 自己生成ニューラルネットワーク(self-generatingneuralnetworks:SGNN)は与えられた訓練データセットより自動的に自己生成ニューラル木(self-generatingneuraltree:SGNT)を構築することで高速処理を行う.我々は,SGNNの汎化誤差を減少させるため,アンサンブル自己生成ニューラルネットワーク(ensembleself-generatingneuralnetworks:ESGNN)を提案した.ESGNNは単一のSGNNに比べ高い精度を得られるが,計算コスト(記憶容量,計算時間)はアンサンブル学習に使用するSGNNの数が増えるにつれて増大する.本論文では,分類に対する記憶容量を削減するための新しいESGNNの枝刈り法を提案する.UCI機械学習データベースの10のデータセットに対し,枝刈り後のSGNNを基本予測器とするESGNNと最近傍法によるモデルの解の精度,メモリ使用量,計算時間を比較する.実験結果より,本提案手法はメモリ使用量を枝刈り前の30%から90%削減し,最近傍法を用いたモデルに比べ高い精度が得られることを示す.さらに,2つのサンプリング法による枝刈り後のESGNNの性能評価を行う. | |||||||
論文抄録(英) | ||||||||
内容記述タイプ | Other | |||||||
内容記述 | Self-Generating Neural Networks (SGNN) have a feature of fast processing by automatically constructing self-generating neural tree (SGNT) from given training data set. In our previous work, we introduced an ensemble model called ESGNN (ensemble self-generating neural networks) which can be used to reduce the generalization error of a single SGNN. Although this model can obtain the high accuracy than a single SGNN, the computational cost increase in proportion to the number of SGNN in the ensemble learning. In this paper, we propose a newpruning method for ESGNN to reduce the memory requirement for classi fication. We compare ESGNN with nearest neighbor classifier using a collection of ten benchmark problems in the UCI machine learning repository. Experimental results showthat our method could reduce the memory requirement from 30% to 90% of unpruned ESGNN and improve the accuracy over the accuracy of the nearest neighbor classi fier. A performance analysis of pruned ESGNN on two sampling methods is also discussed. | |||||||
書誌レコードID | ||||||||
収録物識別子タイプ | NCID | |||||||
収録物識別子 | AA11464803 | |||||||
書誌情報 |
情報処理学会論文誌数理モデル化と応用(TOM) 巻 43, 号 SIG07(TOM6), p. 59-69, 発行日 2002-09-15 |
|||||||
ISSN | ||||||||
収録物識別子タイプ | ISSN | |||||||
収録物識別子 | 1882-7780 | |||||||
出版者 | ||||||||
言語 | ja | |||||||
出版者 | 情報処理学会 |