@techreport{oai:ipsj.ixsq.nii.ac.jp:00197660,
 author = {藤岡, 和暉 and 町田, 貴史 and 松原, 崇 and 上原, 邦昭 and Kazuki, Fujioka and Takashi, Machida and Takashi, Matsubara and Kuniaki, Uehara},
 issue = {2},
 month = {Jun},
 note = {深層学習に基づく画像のモダリティ変換は, 2 つのドメインの同時分布とそれらの間の変換の学習を目的としている.特に,敵対的学習 (GAN) に基づく手法の 1 つである CycleGAN は目覚ましい結果を示している.しかし,CycleGAN による画像のモダリティ変換は,変換前後における整合性の維持が難しく,異なるドメインの大規模
な訓練データを生成するパフォーマンスを低下させる.この問題を解決するために,本研究では CycleGAN を改良した.具体的には,CycleGAN では変換後の画像 1 枚のみで識別するところを,本研究では変換前後の画像をペアにして識別することで,整合性の維持を図る.また,CycleGAN と提案手法を比較するために,変換画像から生成されたデータセットを用いて YOLOv3 を訓練することにより定量的に評価した.実験結果より,提案手法がデータ増強に有効であることを示した., Image-to-image translation methods based on deep learning intend to learn the joint distribution of the two domains and find transformations between them. Especially, Generative Adversarial Network (GAN)-based methods have shown convincing results, but they are tend to fail to preserve object details and maintain translation consistency. As a result, this reduces their practical performance such as generating large-scale training data for different domains. To address this problem, we improve CycleGAN. The purposed network generates visually reasonable images. In addition, we quantitatively evaluate CycleGAN and our method by training YOLOv3 with dataset generated from the image-translation result and demonstrate significant improvement on the detection accuracies by using the proposed object details preserving network.},
 title = {自動運転向け物体検出システムのための敵対的昼夜変換},
 year = {2019}
}