@techreport{oai:ipsj.ixsq.nii.ac.jp:00219032, author = {フォンタネシ, ミケレ and 田渕, 晶大 and ダン, タン and 田原, 司睦 and Michele, Fontanesi and Akihiro, Tabuchi and Thang, Dang and Tsuguchika, Tabaru}, issue = {6}, month = {Jul}, note = {畳み込みニューラルネットワークは,人間が見ても気づかない程度の変化を画像に与えてモデルをだます敵対的データの存在によって広範囲への適用が制限されている.この論文では,ホワイトボックス攻撃とクラスタリング技術に基づき,敵対的データを判別するシンプルなフレームワークを提案する.我々の提案は,容易に誤分類されるラベルのクラスタごとに隠れニューラルネットワークを用いることで学習済み画像分類モデルを保護する点に特徴がある., The wide broad adoption of convolutional neural networks is currently constrained by the existence of adversarial examples, carefully perturbed images, unrecognizable by human beings, but able to fool a model. In this work, we propose a simple framework, based on white box attacks and clustering techniques, to implement detection capabilities against adversarial examples. Our proposal features multiple hidden neural networks, trained on clusters of easily misclassified labels, to protect a pretrained image classification model.}, title = {隠れニューラルネットワークを用いた敵対的画像の検出システム}, year = {2022} }