2024-03-29T19:41:44Zhttps://ipsj.ixsq.nii.ac.jp/ej/?action=repository_oaipmhoai:ipsj.ixsq.nii.ac.jp:001918582024-03-29T05:26:34Z01164:04619:09352:09579
人物の骨格と画像中のエッジを用いた所持品領域検出に関する一検討A Study on Region Detection of Personal Belongings Using Human Skeleton and Edges in an Imagejpn一般セッション1http://id.nii.ac.jp/1001/00191769/Technical Reporthttps://ipsj.ixsq.nii.ac.jp/ej/?action=repository_action_common_download&item_id=191858&item_no=1&attribute_id=1&file_no=1Copyright (c) 2018 by the Information Processing Society of Japan東北大学大学院情報科学研究科東北大学大学院情報科学研究科/東北大学サイバーサイエンスセンター東北大学大学院情報科学研究科/東北大学サイバーサイエンスセンター三浦, 誠阿部, 亨菅沼, 拓夫荷物の置き引きや不審物の放置など人物の所持品が関係した犯罪を監視するため,画像中から所持品の領域を検出することは重要である.近年,(1) 人物領域の雛型を生成し,(2) 画像中の移動物体領域 (前景領域) で雛型と異なる箇所 (所持品候補箇所) の決定を行い,(3) 所持品候補箇所の特徴から所持品領域を検出するという 3 つのステップに従い,画像中から所持品領域を検出するアプローチが提案されている.しかし,このアプローチに基づく従来手法では,各ステップの精度が十分でないため,所持品領域を高精度に検出することが困難であった.この課題へ対処するため,本稿では,人物の骨格に基づく雛型の生成,画像中の前景領域のエッジと雛型の輪郭の比較による所持品候補箇所の決定,人物による遮蔽を考慮した所持品領域の検出を行う手法を提案し,所持品領域検出精度の向上を図る.In order to observe crime scenes associated with personal belongings, such as luggage theft or leaving behind suspicious parcels, it is essential to detect personal belonging regions in images. Recently, existing approaches propose a three-step region detection. Initially, (1) they generate a template of the human region, then (2) determine candidate parts of personal belonging regions which are parts of the foreground in an image different to the generated template, and finally, (3) detect personal belonging regions in the determined candidate parts. However, they lack accuracy on detecting the region due to poor accuracy in each step. Therefore, in this article, we propose a highly accurate method for personal belonging region detection, which consists of generating a template of the human region from a human skeleton, determining candidate parts of personal belonging regions by comparing edges in an image with contours of the human region template, and detecting personal belonging regions in consideration of occlusions by the human body.AA11131797研究報告コンピュータビジョンとイメージメディア(CVIM)2018-CVIM-2141182018-10-312188-87012018-10-25