| Item type |
National Convention(1) |
| 公開日 |
2024-03-01 |
| タイトル |
|
|
タイトル |
ロボットの視点を含んだ3D Visual Grounding |
| 言語 |
|
|
言語 |
jpn |
| キーワード |
|
|
主題Scheme |
Other |
|
主題 |
人工知能と認知科学 |
| 資源タイプ |
|
|
資源タイプ識別子 |
http://purl.org/coar/resource_type/c_5794 |
|
資源タイプ |
conference paper |
| 著者所属 |
|
|
|
早大 |
| 著者所属 |
|
|
|
早大 |
| 著者所属 |
|
|
|
早大 |
| 著者所属 |
|
|
|
筑波大 |
| 著者所属 |
|
|
|
産総研 |
| 著者所属 |
|
|
|
産総研 |
| 著者所属 |
|
|
|
早大 |
| 著者名 |
岩片, 彰吾
大島, 遼祐
綱島, 秀樹
松澤, 郁哉
YUE, QIU
片岡, 裕雄
森島, 繁生
|
| 論文抄録 |
|
|
内容記述タイプ |
Other |
|
内容記述 |
3D Visual Groundingは3Dシーンで自然言語により示される物体を特定するタスクであり,応用先の一つとして人間とロボットの自然言語のインタラクションがある.実世界で人間は相手に指示をする際「あなたの右の机」など相手の位置情報を使用し指示を簡潔に行う事がある.しかし既存研究ではテキストと3D点群のみを使用した物体の特定が行なわれ,しばしば指示に使用するには不自然なテキストがデータに含まれる.(「ドアから窓を見て右にある机」など)そこで本論文では,より実世界に即した"指示を受けるロボットの位置情報"を入力とした物体の特定タスクを行うため、新しいデータセットの作成とモデルの提案を行う. |
| 書誌レコードID |
|
|
収録物識別子タイプ |
NCID |
|
収録物識別子 |
AN00349328 |
| 書誌情報 |
第86回全国大会講演論文集
巻 2024,
号 1,
p. 883-884,
発行日 2024-03-01
|
| 出版者 |
|
|
言語 |
ja |
|
出版者 |
情報処理学会 |