ログイン 新規登録
言語:

WEKO3

  • トップ
  • ランキング
To
lat lon distance
To

Field does not validate



インデックスリンク

インデックスツリー

メールアドレスを入力してください。

WEKO

One fine body…

WEKO

One fine body…

アイテム

  1. 研究報告
  2. コンピュータグラフィックスとビジュアル情報学(CG)
  3. 2024
  4. 2024-CG-196

継続学習のためのタスク分割と並べ替え:錯乱行列からのクラスクラスタリング

https://ipsj.ixsq.nii.ac.jp/records/241064
https://ipsj.ixsq.nii.ac.jp/records/241064
99701dc5-dcd5-4e0b-883b-9deff022fcc7
名前 / ファイル ライセンス アクション
IPSJ-CG24196005.pdf IPSJ-CG24196005.pdf (1.7 MB)
Copyright (c) 2024 by the Institute of Electronics, Information and Communication Engineers This SIG report is only available to those in membership of the SIG.
CG:会員:¥0, DLIB:会員:¥0
Item type SIG Technical Reports(1)
公開日 2024-11-22
タイトル
タイトル 継続学習のためのタスク分割と並べ替え:錯乱行列からのクラスクラスタリング
タイトル
言語 en
タイトル Task Partitioning and Ordering for Continual Learning: Class Clustering from Confusion Matrix
言語
言語 jpn
資源タイプ
資源タイプ識別子 http://purl.org/coar/resource_type/c_18gh
資源タイプ technical report
著者所属
和歌山大学大学院システム工学研究科
著者所属(英)
en
Graduate School of Systems Engineering, Wakayama University
著者名 和田, 俊和

× 和田, 俊和

和田, 俊和

Search repository
著者名(英) Thosikazu, Wada

× Thosikazu, Wada

en Thosikazu, Wada

Search repository
論文抄録
内容記述タイプ Other
内容記述 識別先クラスが途中で追加されながら単一モデルの学習を行う「継続学習」(「クラス増分学習」とも呼ばれる)は,新商品が随時追加される商品画像認識など広い応用がある.ヒトの場合は,学習の途中で識別先クラスが増えても問題なく学習できるが,機械学習では,新たなクラスの学習が行われると,それまでに学習していた識別ルールが瓦解する「破局(破滅)的忘却」という現象が起きる.これを回避する様々な手法に関する研究が盛んに行われている.本報告は,個々の学習法に関する内容ではなく,継続学習におけるベンチマーク法に関するものである.例えば,CIFAR100 など多クラスへの分類学習タスクを,少数クラスへの分類学習タスクを複数回実行する場合と比較して,性能がどの程度低下するかが継続学習の性能評価尺度として一般的に用いられている.しかし,この場合,元の分類学習タスクをどのようなサブタスクに分割するかということと,それらを実行する順序が問題の難易度を大きく左右する.本研究では,元の識別問題を学習した識別器の錯乱行列から,クラス間の誤識別の度合いを表す重み付きグラフの隣接行列を求め,このグラフ構造を分割することにより,タスクへの分割を行い,各タスクの難易度を見積り,それに従って並べ替える方法を示す.これによって,継続学習問題の難易度が大きく変化することを示す.
論文抄録(英)
内容記述タイプ Other
内容記述 “Continual learning” (also known as ‘class incremental learning’), in which a single model is trained while new classes are added during the training process, has a wide range of applications. Product image retrieval is such an example, where new products are added at any time. For human beings, continual learning is a natural task, in machine learning, however, it is known that when new classes are learned, a phenomenon called “catastrophic forgetting” occurs, in which the discrimination rules learned are broken down. Methods to avoid this phenomenon are actively investigated, however, we do not focus on learning methods, but rather on benchmarking in this report. A commonly used benchmarking is how much the accuracy decreases comparing a single classification task with multiple decomposed sub-tasks, i.e., classification tasks to sub-classes. In this case, the partitioning of the original learning task and the ordering of decomposed tasks greatly affect the difficulty of the learning problem. In this study, we introduce a weighted graph representing miss-classification among classes, whose adjacency matrix is obtained from the confusion matrix of the classifier of original problem. By partitioning this graph vertices into disjoint set, the original learning task can be decomposed into subtasks. We show that the difficulty of the continual learning problem varies significantly depending on the method of graph partitioning and task ordering.
書誌レコードID
収録物識別子タイプ NCID
収録物識別子 AN10100541
書誌情報 研究報告コンピュータグラフィックスとビジュアル情報学(CG)

巻 2024-CG-196, 号 5, p. 1-6, 発行日 2024-11-22
ISSN
収録物識別子タイプ ISSN
収録物識別子 2188-8949
Notice
SIG Technical Reports are nonrefereed and hence may later appear in any journals, conferences, symposia, etc.
出版者
言語 ja
出版者 情報処理学会
戻る
0
views
See details
Views

Versions

Ver.1 2025-01-19 07:45:18.567628
Show All versions

Share

Mendeley Twitter Facebook Print Addthis

Cite as

エクスポート

OAI-PMH
  • OAI-PMH JPCOAR
  • OAI-PMH DublinCore
  • OAI-PMH DDI
Other Formats
  • JSON
  • BIBTEX

Confirm


Powered by WEKO3


Powered by WEKO3