Item type |
SIG Technical Reports(1) |
公開日 |
2021-10-29 |
タイトル |
|
|
タイトル |
視覚による把持位置推定と力覚による多指ハンドの頑健な把持方策獲得 |
タイトル |
|
|
言語 |
en |
|
タイトル |
Grasp Detection Using Vision and Robust Grasp Policy Using Haptics for Multi-fingered Hand |
言語 |
|
|
言語 |
jpn |
資源タイプ |
|
|
資源タイプ識別子 |
http://purl.org/coar/resource_type/c_18gh |
|
資源タイプ |
technical report |
著者所属 |
|
|
|
東京工業大学情報理工学院/Applied Robotics Research, Microsoft |
著者所属 |
|
|
|
Applied Robotics Research, Microsoft |
著者所属 |
|
|
|
Applied Robotics Research, Microsoft |
著者所属 |
|
|
|
Applied Robotics Research, Microsoft |
著者所属 |
|
|
|
東京工業大学情報理工学院 |
著者所属 |
|
|
|
Applied Robotics Research, Microsoft |
著者所属(英) |
|
|
|
en |
|
|
/ Applied Robotics Research, Microsoft |
著者所属(英) |
|
|
|
en |
|
|
Applied Robotics Research, Microsoft |
著者所属(英) |
|
|
|
en |
|
|
Applied Robotics Research, Microsoft |
著者所属(英) |
|
|
|
en |
|
|
Applied Robotics Research, Microsoft |
著者所属(英) |
|
|
|
en |
|
|
Applied Robotics Research, Microsoft |
著者名 |
齊藤, 大智
笹渕, 一宏
和家, 尚希
高松, 淳
小池, 英樹
池内, 克史
|
著者名(英) |
Daichi, Saito
Kazuhiro, Sasabuchi
Naoki, Wake
Jun, Takamatsu
Hideki, Koike
Katsushi, Ikeuchi
|
論文抄録 |
|
|
内容記述タイプ |
Other |
|
内容記述 |
ロボットを人間の日常生活に導入するには,人間の手を模倣した多指ハンドによるタスクを考慮した把持を可能とすることが重要である.また,位置姿勢や大きさ,形状といった物体情報が未知の環境での把持が必要である.本研究では視覚情報と力覚情報を組み合わせた新しい把持の枠組みを提案する.視覚情報である物体の写った深度画像から把持位置姿勢を推定する.把持位置姿勢の真値は人間のデモンストレーションから計算される.そして,力覚情報である指に作用する反力から多指ハンドの行動を決定することで,位置姿勢の推定誤差に適応した把持方策を実現する.把持方策学習時に用いた物体と大きさと形状が異なる物体を対象に実験を行った.その結果,把持位置姿勢の推定誤差が生じた状況であっても頑健な把持を行えることを示した. |
論文抄録(英) |
|
|
内容記述タイプ |
Other |
|
内容記述 |
In order to introduce a robot into daily life, it is important to grasp with a multi-fingered hand that mimics the human hand. In addition, it is necessary to grasp in an environment where object information such as position, orientation, scale and shape is unknown. In this study, we propose a new grasp framework that combines vision and haptics. The grasp position and orientation are estimated from the depth image of the object, which is visual information. The ground truth of the grasp position and orientation is calculated from a human demonstration. Then, the grasping policy is adapted to the estimation error by determining the action of the multi-fingered hand from the haptics. We conducted the experiment using objects with different shapes from the one used for learning the grasping policy. As a result, it was shown that the system can perform robust grasping even in the situation with the estimation error. |
書誌レコードID |
|
|
収録物識別子タイプ |
NCID |
|
収録物識別子 |
AA11131797 |
書誌情報 |
研究報告コンピュータビジョンとイメージメディア(CVIM)
巻 2021-CVIM-227,
号 15,
p. 1-8,
発行日 2021-10-29
|
ISSN |
|
|
収録物識別子タイプ |
ISSN |
|
収録物識別子 |
2188-8701 |
Notice |
|
|
|
SIG Technical Reports are nonrefereed and hence may later appear in any journals, conferences, symposia, etc. |
出版者 |
|
|
言語 |
ja |
|
出版者 |
情報処理学会 |