@techreport{oai:ipsj.ixsq.nii.ac.jp:00232724, author = {添田, 遼 and 内田, 真人 and Ryo, Soeda and Masato, Uchida}, issue = {33}, month = {Feb}, note = {ニューラルネットワークによる画像分類は,自動運転などへの幅広い応用が期待されている.しかし,ニューラルネットワークは Adversarial Example を用いた攻撃に対して脆弱である.本研究では,Adversarial Example において付加されるノイズのバランスを崩すという新たな着想に基づいた防御手法を提案する.具体的には,画像の色情報を意図的に一部加工させることでノイズのバランスを崩す手法を提案する., Image classification using neural networks is expected to have a wide range of applications, including automated driving. However, neural networks are vulnerable to adversarial example attacks. This study proposes a new defense method based on a new idea of disturbing the noise balance added in the adversarial example. Specifically, we propose a method to disable the noise balance by intentionally processing the color information in an image.}, title = {色情報の加工によるAdversarial Exampleの無効化}, year = {2024} }