ログイン 新規登録
言語:

WEKO3

  • トップ
  • ランキング
To
lat lon distance
To

Field does not validate



インデックスリンク

インデックスツリー

メールアドレスを入力してください。

WEKO

One fine body…

WEKO

One fine body…

アイテム

  1. 研究報告
  2. コンピュータグラフィックスとビジュアル情報学(CG)
  3. 2021
  4. 2021-CG-184

視覚による把持位置推定と力覚による多指ハンドの頑健な把持方策獲得

https://ipsj.ixsq.nii.ac.jp/records/213547
https://ipsj.ixsq.nii.ac.jp/records/213547
868c3c59-4d63-448d-8534-5401599f51ef
名前 / ファイル ライセンス アクション
IPSJ-CG21184017.pdf IPSJ-CG21184017.pdf (4.1 MB)
Copyright (c) 2021 by the Information Processing Society of Japan
オープンアクセス
Item type SIG Technical Reports(1)
公開日 2021-10-29
タイトル
タイトル 視覚による把持位置推定と力覚による多指ハンドの頑健な把持方策獲得
タイトル
言語 en
タイトル Grasp Detection Using Vision and Robust Grasp Policy Using Haptics for Multi-fingered Hand
言語
言語 jpn
資源タイプ
資源タイプ識別子 http://purl.org/coar/resource_type/c_18gh
資源タイプ technical report
著者所属
東京工業大学情報理工学院/Applied Robotics Research, Microsoft
著者所属
Applied Robotics Research, Microsoft
著者所属
Applied Robotics Research, Microsoft
著者所属
Applied Robotics Research, Microsoft
著者所属
東京工業大学情報理工学院
著者所属
Applied Robotics Research, Microsoft
著者所属(英)
en
/ Applied Robotics Research, Microsoft
著者所属(英)
en
Applied Robotics Research, Microsoft
著者所属(英)
en
Applied Robotics Research, Microsoft
著者所属(英)
en
Applied Robotics Research, Microsoft
著者所属(英)
en
Applied Robotics Research, Microsoft
著者名 齊藤, 大智

× 齊藤, 大智

齊藤, 大智

Search repository
笹渕, 一宏

× 笹渕, 一宏

笹渕, 一宏

Search repository
和家, 尚希

× 和家, 尚希

和家, 尚希

Search repository
高松, 淳

× 高松, 淳

高松, 淳

Search repository
小池, 英樹

× 小池, 英樹

小池, 英樹

Search repository
池内, 克史

× 池内, 克史

池内, 克史

Search repository
著者名(英) Daichi, Saito

× Daichi, Saito

en Daichi, Saito

Search repository
Kazuhiro, Sasabuchi

× Kazuhiro, Sasabuchi

en Kazuhiro, Sasabuchi

Search repository
Naoki, Wake

× Naoki, Wake

en Naoki, Wake

Search repository
Jun, Takamatsu

× Jun, Takamatsu

en Jun, Takamatsu

Search repository
Hideki, Koike

× Hideki, Koike

en Hideki, Koike

Search repository
Katsushi, Ikeuchi

× Katsushi, Ikeuchi

en Katsushi, Ikeuchi

Search repository
論文抄録
内容記述タイプ Other
内容記述 ロボットを人間の日常生活に導入するには,人間の手を模倣した多指ハンドによるタスクを考慮した把持を可能とすることが重要である.また,位置姿勢や大きさ,形状といった物体情報が未知の環境での把持が必要である.本研究では視覚情報と力覚情報を組み合わせた新しい把持の枠組みを提案する.視覚情報である物体の写った深度画像から把持位置姿勢を推定する.把持位置姿勢の真値は人間のデモンストレーションから計算される.そして,力覚情報である指に作用する反力から多指ハンドの行動を決定することで,位置姿勢の推定誤差に適応した把持方策を実現する.把持方策学習時に用いた物体と大きさと形状が異なる物体を対象に実験を行った.その結果,把持位置姿勢の推定誤差が生じた状況であっても頑健な把持を行えることを示した.
論文抄録(英)
内容記述タイプ Other
内容記述 In order to introduce a robot into daily life, it is important to grasp with a multi-fingered hand that mimics the human hand. In addition, it is necessary to grasp in an environment where object information such as position, orientation, scale and shape is unknown. In this study, we propose a new grasp framework that combines vision and haptics. The grasp position and orientation are estimated from the depth image of the object, which is visual information. The ground truth of the grasp position and orientation is calculated from a human demonstration. Then, the grasping policy is adapted to the estimation error by determining the action of the multi-fingered hand from the haptics. We conducted the experiment using objects with different shapes from the one used for learning the grasping policy. As a result, it was shown that the system can perform robust grasping even in the situation with the estimation error.
書誌レコードID
収録物識別子タイプ NCID
収録物識別子 AN10100541
書誌情報 研究報告コンピュータグラフィックスとビジュアル情報学(CG)

巻 2021-CG-184, 号 17, p. 1-8, 発行日 2021-10-29
ISSN
収録物識別子タイプ ISSN
収録物識別子 2188-8949
Notice
SIG Technical Reports are nonrefereed and hence may later appear in any journals, conferences, symposia, etc.
出版者
言語 ja
出版者 情報処理学会
戻る
0
views
See details
Views

Versions

Ver.1 2025-01-19 17:07:21.517785
Show All versions

Share

Mendeley Twitter Facebook Print Addthis

Cite as

エクスポート

OAI-PMH
  • OAI-PMH JPCOAR
  • OAI-PMH DublinCore
  • OAI-PMH DDI
Other Formats
  • JSON
  • BIBTEX

Confirm


Powered by WEKO3


Powered by WEKO3