@techreport{oai:ipsj.ixsq.nii.ac.jp:00082588, author = {風間, 光 and 川本, 一彦 and 岡本, 一志 and Hikaru, Kazama and Kazuhiko, Kawamoto and Kazushi, Okamoto}, issue = {27}, month = {May}, note = {図書館における利用者の行動調査の効率化のために,ウェアラブルカメラを用いた自己位置推定法を提案する.提案手法では,撮影位置が既知な画像群の中から,ウェアラブルカメラによって得られたクエリ画像と最も類似した画像を検索し,検索結果として出力された画像の撮影位置をクエリ画像の撮影位置とする.画像間の類似度は,局所特徴点の対応点数によって計算する.このような自己位置推定は,特徴点の3次元的な配置を考えないため,最適化計算を伴う他の手法と比べて,特徴点の誤対応に対して安定した位置推定が行える.実際に大学図書館で撮影した画像を用いた実験において,最適化計算を伴う手法ではクエリ画像19枚中2枚しか撮影位置を求められなかったのに対し,提案手法を用いた場合は19枚全ての撮影位置を求めることができた.さらに,クエリ画像が時系列に沿って入力されることを仮定し,パーティクルフィルタによる局所探索を導入することで,自己位置の不自然なジャンプを抑制できることを示す., We propose a method for visual localization using an wearable camera in order to streamline the survey of Information-Use. Our method retrieves the most similar image to a query image taken by wearable camera from image database. We define the camera position of a query image as the camera position of the image outputted as search result. The similarity is computed by the number of matched local features. Unlike other methods that involve optimization, our method doesn't consider the geometry of the features and it enables stable localization. In experiments with real images taken at a library, we show that our method can localize all 19 query images while the method that involve optimization can localize only two query images. Furthermore, we assume that query images are time series data and we can suppress unusual jump of location using particle filter.}, title = {画像検索を用いた図書館内での自己位置推定}, year = {2012} }