@article{oai:ipsj.ixsq.nii.ac.jp:00190375, author = {河野, 晋策 and 若林, 啓 and Shinsaku, Kono and Kei, Wakabayashi}, issue = {2}, journal = {情報処理学会論文誌データベース(TOD)}, month = {Jul}, note = {機械学習による分類において,精度の高い手法として複数の分類モデルの結合であるアンサンブルがよく用いられるが,アンサンブルは多大な計算資源を必要とするため,携帯端末など計算資源の限られた環境で用いるのが難しい.この問題に対して,アンサンブルを小さなニューラルネットワークで近似するモデル圧縮の手法が提案されている.モデル圧縮では,オリジナルデータを基に大量の疑似データを生成して近似モデルの学習に用いるが,この疑似データ生成において真のデータ分布をよく近似した疑似データ分布を得ることが,近似モデルの性能を元のアンサンブルに近づけるために重要である.本研究では,分類クラスごとの分布の偏りを考慮することで,既存手法よりも近似モデルの学習に有効な疑似データを高速に生成するAdaptive MUNGEを提案する.実験により,提案手法は既存手法と比較して高速に疑似データを生成することができ,かつ,より精度を保つモデル圧縮が実現できることを示す., In classification by machine learning, an ensemble method that is a combination of multiple classification models is often highly accurate. However, since an ensemble method require a large amount of computational resources, it is difficult to use it in an environment with limited computing resources such as mobile phones. To solve this problem, model compression that approximates an ensemble with a small neural network has been proposed. In model compression, a large amount of synthetic data is generated based on the original data and used for learning of the approximate model. It is important to obtain a synthetic data distribution that closely approximates the true data distribution in this synthetic data generation in order to bring the performance of the approximate model closer to the original ensemble. In this study, we propose Adaptive MUNGE which generates synthetic data which is effective for learning of approximate model faster than existing method by considering the distribution bias of each classification class. Experimental results show that the proposed method can generate synthetic data at high speed compared with the existing method and can realize model compression that maintains more accuracy.}, pages = {7--15}, title = {モデル圧縮におけるクラス不均衡に着目した疑似データ生成手法の提案}, volume = {11}, year = {2018} }