@techreport{oai:ipsj.ixsq.nii.ac.jp:00241065,
 author = {松本, 悠希 and 尾澤, 知憲 and 奥野, 拓也 and 三浦, 勝司 and Yuki, Matsumoto and Tomokazu, Ozawa and Takuya, Okuno and Katsushi, Miura},
 issue = {6},
 month = {Nov},
 note = {本論文ではラベル無し自己教師あり学習の一つである DINO(ViT ベース)に Sigmoid Attention による Attention の修正機構を導入することを提案する.Sigmoid Attention は Self-Attention におけるクエリとキーを内積したテンソルにシグモイド関数を適用したものである.その後,逆シグモイド変換を行い,通常のソフトマックス関数を適用する.このような演算過程により Vision Transformer のネットワークを阻害することなく,人による柔軟な Attention の修正が可能となる.本提案は人が Sigmoid Attention を修正し,これを教師データとしてファインチューニング(Human In the Loop)することで,人の知見をネットワークに反映させ,精度向上や Attention の視覚的説明性の向上に貢献するものである.提案手法の性能を評価するために ImageNet から 3 クラスを抽出し検討を行った., In this paper, we propose to introduce Attention Modification Mechanism using Sigmoid Attention to DINO (ViT based), which is a type of unlabeled self-supervised learning. Sigmoid Attention is applied Sigmoid function to tensor of dot product Query and Key in Self-Attention. After, it is applied inverse Sigmoid function and Softmax function in that order. By such calculation process, Vision Transformer network isn't impeded, and flexible modification of Attention by humans is possible. This proposal allows humans to modify Sigmoid Attention and use it as training data for fine-tuning, thereby reflecting human knowledge in the network and contributing to improved accuracy and visual explanation of Attention. In order to evaluate the proposal method performance, we extracted three classes from ImageNet and examined them.},
 title = {Sigmoid AttentionによるAttention修正機構を導入したDINOの性能評価},
 year = {2024}
}