ログイン 新規登録
言語:

WEKO3

  • トップ
  • ランキング
To
lat lon distance
To

Field does not validate



インデックスリンク

インデックスツリー

メールアドレスを入力してください。

WEKO

One fine body…

WEKO

One fine body…

アイテム

  1. 研究報告
  2. コンピュータグラフィックスとビジュアル情報学(CG)
  3. 2024
  4. 2024-CG-196

Sigmoid AttentionによるAttention修正機構を導入したDINOの性能評価

https://ipsj.ixsq.nii.ac.jp/records/241065
https://ipsj.ixsq.nii.ac.jp/records/241065
649ac0c0-3641-431d-a6eb-3b5d613a66b9
名前 / ファイル ライセンス アクション
IPSJ-CG24196006.pdf IPSJ-CG24196006.pdf (2.0 MB)
Copyright (c) 2024 by the Institute of Electronics, Information and Communication Engineers This SIG report is only available to those in membership of the SIG.
CG:会員:¥0, DLIB:会員:¥0
Item type SIG Technical Reports(1)
公開日 2024-11-22
タイトル
タイトル Sigmoid AttentionによるAttention修正機構を導入したDINOの性能評価
タイトル
言語 en
タイトル Performance Evaluation of DINO with Attention Modification Mechanism Introduced by Sigmoid Attention
言語
言語 jpn
資源タイプ
資源タイプ識別子 http://purl.org/coar/resource_type/c_18gh
資源タイプ technical report
著者所属
住友電気工業株式会社
著者所属
株式会社ユニコ
著者所属
住電通信エンジニアリング株式会社
著者所属
住友電気工業株式会社
著者所属(英)
en
Sumitomo Electric Industries, Ltd.
著者所属(英)
en
UNICO Co.,Ltd.
著者所属(英)
en
Sumiden Communication Engineering Co.,Ltd.
著者所属(英)
en
Sumitomo Electric Industries, Ltd.
著者名 松本, 悠希

× 松本, 悠希

松本, 悠希

Search repository
尾澤, 知憲

× 尾澤, 知憲

尾澤, 知憲

Search repository
奥野, 拓也

× 奥野, 拓也

奥野, 拓也

Search repository
三浦, 勝司

× 三浦, 勝司

三浦, 勝司

Search repository
著者名(英) Yuki, Matsumoto

× Yuki, Matsumoto

en Yuki, Matsumoto

Search repository
Tomokazu, Ozawa

× Tomokazu, Ozawa

en Tomokazu, Ozawa

Search repository
Takuya, Okuno

× Takuya, Okuno

en Takuya, Okuno

Search repository
Katsushi, Miura

× Katsushi, Miura

en Katsushi, Miura

Search repository
論文抄録
内容記述タイプ Other
内容記述 本論文ではラベル無し自己教師あり学習の一つである DINO(ViT ベース)に Sigmoid Attention による Attention の修正機構を導入することを提案する.Sigmoid Attention は Self-Attention におけるクエリとキーを内積したテンソルにシグモイド関数を適用したものである.その後,逆シグモイド変換を行い,通常のソフトマックス関数を適用する.このような演算過程により Vision Transformer のネットワークを阻害することなく,人による柔軟な Attention の修正が可能となる.本提案は人が Sigmoid Attention を修正し,これを教師データとしてファインチューニング(Human In the Loop)することで,人の知見をネットワークに反映させ,精度向上や Attention の視覚的説明性の向上に貢献するものである.提案手法の性能を評価するために ImageNet から 3 クラスを抽出し検討を行った.
論文抄録(英)
内容記述タイプ Other
内容記述 In this paper, we propose to introduce Attention Modification Mechanism using Sigmoid Attention to DINO (ViT based), which is a type of unlabeled self-supervised learning. Sigmoid Attention is applied Sigmoid function to tensor of dot product Query and Key in Self-Attention. After, it is applied inverse Sigmoid function and Softmax function in that order. By such calculation process, Vision Transformer network isn't impeded, and flexible modification of Attention by humans is possible. This proposal allows humans to modify Sigmoid Attention and use it as training data for fine-tuning, thereby reflecting human knowledge in the network and contributing to improved accuracy and visual explanation of Attention. In order to evaluate the proposal method performance, we extracted three classes from ImageNet and examined them.
書誌レコードID
収録物識別子タイプ NCID
収録物識別子 AN10100541
書誌情報 研究報告コンピュータグラフィックスとビジュアル情報学(CG)

巻 2024-CG-196, 号 6, p. 1-6, 発行日 2024-11-22
ISSN
収録物識別子タイプ ISSN
収録物識別子 2188-8949
Notice
SIG Technical Reports are nonrefereed and hence may later appear in any journals, conferences, symposia, etc.
出版者
言語 ja
出版者 情報処理学会
戻る
0
views
See details
Views

Versions

Ver.1 2025-01-19 07:45:17.502739
Show All versions

Share

Mendeley Twitter Facebook Print Addthis

Cite as

エクスポート

OAI-PMH
  • OAI-PMH JPCOAR
  • OAI-PMH DublinCore
  • OAI-PMH DDI
Other Formats
  • JSON
  • BIBTEX

Confirm


Powered by WEKO3


Powered by WEKO3