WEKO3
アイテム
ロボット動作の自動生成のための観察による組み立て作業の抽象化
https://ipsj.ixsq.nii.ac.jp/records/18032
https://ipsj.ixsq.nii.ac.jp/records/1803277276083-940a-41c7-87b8-6c8f41744f16
名前 / ファイル | ライセンス | アクション |
---|---|---|
![]() |
Copyright (c) 2005 by the Information Processing Society of Japan
|
|
オープンアクセス |
Item type | Trans(1) | |||||||
---|---|---|---|---|---|---|---|---|
公開日 | 2005-06-15 | |||||||
タイトル | ||||||||
タイトル | ロボット動作の自動生成のための観察による組み立て作業の抽象化 | |||||||
タイトル | ||||||||
言語 | en | |||||||
タイトル | Abstraction of Assembly Tasks to Automatically Generate Robot Motion from Observation | |||||||
言語 | ||||||||
言語 | jpn | |||||||
キーワード | ||||||||
主題Scheme | Other | |||||||
主題 | 研究会推薦:研究論文 | |||||||
資源タイプ | ||||||||
資源タイプ識別子 | http://purl.org/coar/resource_type/c_6501 | |||||||
資源タイプ | journal article | |||||||
著者所属 | ||||||||
東京大学生産技術研究所 | ||||||||
著者所属 | ||||||||
東京大学生産技術研究所 | ||||||||
著者所属 | ||||||||
電気通信大学 | ||||||||
著者所属 | ||||||||
東京大学生産技術研究所 | ||||||||
著者所属(英) | ||||||||
en | ||||||||
Institute of Industrial Science The University of Tokyo | ||||||||
著者所属(英) | ||||||||
en | ||||||||
Institute of Industrial Science The University of Tokyo | ||||||||
著者所属(英) | ||||||||
en | ||||||||
The University of Electro-Communications | ||||||||
著者所属(英) | ||||||||
en | ||||||||
Institute of Industrial Science The University of Tokyo | ||||||||
著者名 |
高松, 淳
× 高松, 淳
|
|||||||
著者名(英) |
Jun, Takamatsu
× Jun, Takamatsu
|
|||||||
論文抄録 | ||||||||
内容記述タイプ | Other | |||||||
内容記述 | ロボットの研究において,観察による行動獲得機能を有するロボットの実現が強く望まれている.本論文では,組み立て作業に絞って行動獲得機能の実現を目指す.組み立て作業を行うロボットの研究は重要な地位を占めており,また様々な応用が期待できる.我々は,2 つの多面体の接触状態遷移に基づき,組み立て作業を解析する方法を提案する.具体的には,(1) 組み立て作業を接触状態遷移に基づき表現し,(2) ビジョンシステムから得られた誤差を含むデータから,正しい接触状態およびその遷移を推定し,(3) 動作プリミティブ(サブスキルと呼ぶ)の列として組み立て作業を獲得する方法を提案する.実際に,リアルタイムステレオビジョンと2 本腕を有する,我々が開発したロボットに提案手法を実装し,システムの有用性を示す. | |||||||
論文抄録(英) | ||||||||
内容記述タイプ | Other | |||||||
内容記述 | The ability of robots to learn human tasks from observation is one of the long-awaited demands in the field of robotics. Here, we limit the scope of the target tasks to assembly tasks because the domain is one of the central research areas in robotics and has a wide application area. We propose a method to recognize assembly tasks based on transitions of contact relations between two polyhedral objects. Concretely speaking, we propose a method for: (1) representing task models based on such transitions, (2) determining correct contact relations and transitions of them from noise-contaminated visual information, and (3) generating a corresponding sequence of movement-primitives (referred to as sub-skills) from those task models. We have implemented the system on our robot, with real time stereo system and a pair of arms with dextrous hands. In actuality, we have demonstrated the system’s effectiveness. | |||||||
書誌レコードID | ||||||||
収録物識別子タイプ | NCID | |||||||
収録物識別子 | AA11560603 | |||||||
書誌情報 |
情報処理学会論文誌コンピュータビジョンとイメージメディア(CVIM) 巻 46, 号 SIG9(CVIM11), p. 60-71, 発行日 2005-06-15 |
|||||||
ISSN | ||||||||
収録物識別子タイプ | ISSN | |||||||
収録物識別子 | 1882-7810 | |||||||
出版者 | ||||||||
言語 | ja | |||||||
出版者 | 情報処理学会 |