WEKO3
アイテム
全方位動画像からの自己位置識別
https://ipsj.ixsq.nii.ac.jp/records/52024
https://ipsj.ixsq.nii.ac.jp/records/520246d2cdf6b-a9b4-46a5-b907-c976958ee5cd
名前 / ファイル | ライセンス | アクション |
---|---|---|
![]() |
Copyright (c) 2007 by the Information Processing Society of Japan
|
|
オープンアクセス |
Item type | SIG Technical Reports(1) | |||||||
---|---|---|---|---|---|---|---|---|
公開日 | 2007-05-15 | |||||||
タイトル | ||||||||
タイトル | 全方位動画像からの自己位置識別 | |||||||
タイトル | ||||||||
言語 | en | |||||||
タイトル | Location Identification from Omnidirectional Images | |||||||
言語 | ||||||||
言語 | jpn | |||||||
資源タイプ | ||||||||
資源タイプ識別子 | http://purl.org/coar/resource_type/c_18gh | |||||||
資源タイプ | technical report | |||||||
著者所属 | ||||||||
大阪大学大学院基礎工学研究科 | ||||||||
著者所属 | ||||||||
大阪大学大学院基礎工学研究科 | ||||||||
著者所属 | ||||||||
大阪大学大学院基礎工学研究科 | ||||||||
著者所属(英) | ||||||||
en | ||||||||
Graduate School of Engineering Science, Osaka University | ||||||||
著者所属(英) | ||||||||
en | ||||||||
Graduate School of Engineering Science, Osaka University | ||||||||
著者所属(英) | ||||||||
en | ||||||||
Graduate School of Engineering Science, Osaka University | ||||||||
著者名 |
中河, 秀仁
× 中河, 秀仁
|
|||||||
著者名(英) |
Hidehito, NAKAGAWA
× Hidehito, NAKAGAWA
|
|||||||
論文抄録 | ||||||||
内容記述タイプ | Other | |||||||
内容記述 | コンピュータやセンサを身につけてさまざまな作業の支援を行うウェアラブルシステムにおいては、自己位置情報の提供が有益である。本論文では、ウェアラブルな全方位視覚センサより得られる動画像に基づく自己位置識別手法を提案する。提案手法では画像上で適当な半径の円周上の画素情報を抽出し、円周方向に積分を行うことで、全方位画像から撮影時の方位に不変な特徴量を抽出する手法を用いる。さらに、抽出した特徴量から一つの部分空間を構成し、部分空間内で近接した学習画像から自己位置を検出する方法と、同じ場所である学習画像を一つのクラスとして、各クラス毎に部分空間を構成し、未知画像がどの部分空間で最も近似できるか比較する方法の二種類の方法により位置識別を行なう。実際に屋内および屋外環境で撮影された全方位動画像を用いて実験を行い、提案手法の有効性、ウェアラブルシステムへの適応性を確認した。 | |||||||
論文抄録(英) | ||||||||
内容記述タイプ | Other | |||||||
内容記述 | Self-location is very informative for wearable systems. In this paper, we propose a method for identifying user's location from an omnidirectional image by azimuth-invariant features. Azimuth-invariant features are extracted from an omnidirectional image by integrating pixel information circumferentially, and then its location is recognized from the features projected into a sub-space made from learning data. We show the effectiveness of our method by experimental results in real images. | |||||||
書誌レコードID | ||||||||
収録物識別子タイプ | NCID | |||||||
収録物識別子 | AA11131797 | |||||||
書誌情報 |
情報処理学会研究報告コンピュータビジョンとイメージメディア(CVIM) 巻 2007, 号 42(2007-CVIM-159), p. 65-72, 発行日 2007-05-15 |
|||||||
Notice | ||||||||
SIG Technical Reports are nonrefereed and hence may later appear in any journals, conferences, symposia, etc. | ||||||||
出版者 | ||||||||
言語 | ja | |||||||
出版者 | 情報処理学会 |