@techreport{oai:ipsj.ixsq.nii.ac.jp:00234837,
 author = {青山, 竜也 and 花田, 博幸 and 赤羽, 智志 and 大藏, 芳斗 and 田中, 智成 and 稲津, 佑 and 橋本, 典明 and 村山, 太郎 and 李, 翰柱 and 小嶋, 信矢 and 竹内, 一郎 and Tatsuya, Aoyama and Hiroyuki, Hanada and Satoshi, Akahane and Yoshito, Okura and Tomonari, Tanaka and Yu, Inatsu and Noriaki, Hashimoto and Taro, Murayama and Lee, Hanju and Shinya, Kojima and Ichiro, Takeuchi},
 issue = {10},
 month = {Jun},
 note = {近年の機械学習分野では,大規模データセットを扱う際の計算資源の不足が問題となっている.このような問題に対して,最適化計算前に不要な事例を取り除くことが出来るセーフ事例スクリーニングと呼ばれる手法が有効である.しかしながら,入力データ分布が変動する共変量シフト下では,従来のセーフ事例スクリーニング手法は不要な事例を適切に同定できない.そこで本研究では,主にサポートベクトルマシン(SVM)を対象に分布の変動に対してロバストに事例の削除を行うセーフ事例スクリーニングを提案する.計算機実験では無限幅深層ニューラルネットワークを用いて提案手法の妥当性を示す., In machine learning, handling large datasets has been problematic in computational resources. For this issue, safe sample screening (SSS) is an effective solution to remove unnecessary samples before the optimization computation. However, conventional SSS cannot be applied under covariate shift, where the input data distribution changes. In this study, we propose a safe sample screening method that robustly removes unnecessary samples against distribution changes, mainly targeting support vector machines (SVM). Finally we experimentally demonstrate its validity for an infinite-width deep neural network.},
 title = {分布ロバストセーフ事例スクリーニングの提案および無限幅深層ニューラルネットワークへの応用},
 year = {2024}
}