WEKO3
アイテム
シーズ属性の逐次拡張に基づく属性選択
https://ipsj.ixsq.nii.ac.jp/records/50525
https://ipsj.ixsq.nii.ac.jp/records/505251161f211-92d1-4c65-a656-d1ac4eb6c968
名前 / ファイル | ライセンス | アクション |
---|---|---|
![]() |
Copyright (c) 2002 by the Information Processing Society of Japan
|
|
オープンアクセス |
Item type | SIG Technical Reports(1) | |||||||
---|---|---|---|---|---|---|---|---|
公開日 | 2002-05-23 | |||||||
タイトル | ||||||||
タイトル | シーズ属性の逐次拡張に基づく属性選択 | |||||||
タイトル | ||||||||
言語 | en | |||||||
タイトル | Dynamic Incremental Extension of Seed Features in Data Pre - processing of KDD | |||||||
言語 | ||||||||
言語 | jpn | |||||||
資源タイプ | ||||||||
資源タイプ識別子 | http://purl.org/coar/resource_type/c_18gh | |||||||
資源タイプ | technical report | |||||||
著者所属 | ||||||||
静岡大学情報学部 | ||||||||
著者所属 | ||||||||
静岡大学情報学部 | ||||||||
著者所属 | ||||||||
静岡大学情報学部 | ||||||||
著者所属(英) | ||||||||
en | ||||||||
Faculty of Information ,Shizuoka University | ||||||||
著者所属(英) | ||||||||
en | ||||||||
Faculty of Information ,Shizuoka University | ||||||||
著者所属(英) | ||||||||
en | ||||||||
Faculty of Information ,Shizuoka University | ||||||||
著者名 |
小森, 麻央
× 小森, 麻央
|
|||||||
著者名(英) |
Mao, Komori
× Mao, Komori
|
|||||||
論文抄録 | ||||||||
内容記述タイプ | Other | |||||||
内容記述 | 本稿では,ラッパーメソッドの問題点である計算コストを改善する形で,シーズメソッドと呼ぶ新しい属性選択法を提案する.シーズメソッドはまず,所与の全属性集合でマイニングし,得られたルールセットにおいて出現率の高い属性の集合をシーズ属性集合として選択する.この初期属性集合を出発点とし,正解率が低下するまで属性集合を逐次的に拡張していく.今回はシーズメソッドを評価するために,ポピュラーな属性選択メソッドであるフィルターメソッドとラッパーメソッドとの比較実験をUCI MLリポジトリを用いて行った.今回のケーススタディでは,最高の正解率と2番目の計算コストの低さを達成できた. | |||||||
論文抄録(英) | ||||||||
内容記述タイプ | Other | |||||||
内容記述 | This paper presents a new feature selection method in data pre-processing of ML/DM ( Machine Learning and Data Mining ). Our new method starts with a set of seed features that comes up frequently in the results of ML/DM with all the features from a given data set . They can be extended with other features while the incremental extension process can keep higher accuracy of ML/DM than that of the immediate data mining. We have When the accuracy does not become higher, the above repetition stops and the feature subset at that time is taken as the input dataset of ML/DM schemes. compared our new feature selection method with the following popular feature selection methods: filter method and wrapper method. We have done a case study, using fourteen datasets from UCI ML Repository. The case study has shown us that our method gets to or a beyond the level of two popular feature selection methods. | |||||||
書誌レコードID | ||||||||
収録物識別子タイプ | NCID | |||||||
収録物識別子 | AA11135936 | |||||||
書誌情報 |
情報処理学会研究報告知能と複雑系(ICS) 巻 2002, 号 45(2002-ICS-128), p. 7-10, 発行日 2002-05-23 |
|||||||
Notice | ||||||||
SIG Technical Reports are nonrefereed and hence may later appear in any journals, conferences, symposia, etc. | ||||||||
出版者 | ||||||||
言語 | ja | |||||||
出版者 | 情報処理学会 |