| Item type |
SIG Technical Reports(1) |
| 公開日 |
2017-03-02 |
| タイトル |
|
|
タイトル |
一人称視点映像を用いたトップダウン情報に基づく調理動作認識の検討 |
| タイトル |
|
|
言語 |
en |
|
タイトル |
A Study of Cooking Behavior Recognition based on Top-Down using Egocentric Vision |
| 言語 |
|
|
言語 |
jpn |
| キーワード |
|
|
主題Scheme |
Other |
|
主題 |
行動認識 |
| 資源タイプ |
|
|
資源タイプ識別子 |
http://purl.org/coar/resource_type/c_18gh |
|
資源タイプ |
technical report |
| 著者所属 |
|
|
|
大阪工業大学大学院情報科学研究科 |
| 著者所属 |
|
|
|
大阪工業大学大学院情報科学研究科 |
| 著者所属 |
|
|
|
大阪工業大学大学院情報科学研究科 |
| 著者所属(英) |
|
|
|
en |
|
|
Graduate of Information Science and Technology, Graduate School of Osaka Institute of Technology |
| 著者所属(英) |
|
|
|
en |
|
|
Graduate of Information Science and Technology, Graduate School of Osaka Institute of Technology |
| 著者所属(英) |
|
|
|
en |
|
|
Graduate of Information Science and Technology, Graduate School of Osaka Institute of Technology |
| 著者名 |
大井, 翔
池ヶ谷, 剛
佐野, 睦夫
|
| 著者名(英) |
Sho, Oi
Tsuyoshi, Ikegaya
Mutsuo, Sano
|
| 論文抄録 |
|
|
内容記述タイプ |
Other |
|
内容記述 |
近年,ウェアラブルカメラを用いた行動認識が盛んである.ウェアラブルカメラを用いることで簡単に人間の行動情報を取得することができ,ライフケアやライフログなどへの応用が期待されている.これまで我々は,生活に必要不可欠な調理に着目し,一人称視点から得られた動画から調理動作を単一的にとらえて識別を行ってきた.本稿では,調理を一連の動作列として,トップダウン情報を用いた方法で調理動作の認識率向上を目指す.具体的には,トップダウンの情報としてレシピデータを学習することで,調理動作を 「下準備」 「本調理」 「盛り付け」 の 3 種類のステップに分ける.調理動作をステップごとに分けて認識することにより,調理動作の誤認識を防ぎ,認識を向上する方法を提案する.今回は対象として,「切る」 「炒める」 「加える」 「かき混ぜる」 「剥く」 とした.「切る」 動作は 「下準備」 のみのように,対象とした調理動作は,各ステップのみで使用する動作もあり,不要な動作を対象としないことで調理動作の識別の向上を目指す. |
| 論文抄録(英) |
|
|
内容記述タイプ |
Other |
|
内容記述 |
The behavior recognition using a wearable camera is studied by several researchers. The wearable camera can get behavior data a person. So, the data can be used to life care and life log. We focused a cooking needed for daily living. And, we studied a single cooking behavior recognition based on egocentric vision. In this paper, we aim to improve recognition accuracy of cooking behavior using top-down data. Specifically, we recognize the cooking behavior suing a method of top-down data. The top-down data is gotten from knowledge of recipe. The cooking behavior can separate to 3 steps. They are preparation behavior, main behavior and dishing behavior. We propose recognition method included 3 steps structure. For example, “cut” is used only for preparation behavior. So, we think to improve accuracy of cooking behavior. In this research, the cooking behavior is 4 behaviors. They are “cut”, “beat”, “stir” and “peel”. |
| 書誌レコードID |
|
|
収録物識別子タイプ |
NCID |
|
収録物識別子 |
AA11838947 |
| 書誌情報 |
研究報告ユビキタスコンピューティングシステム(UBI)
巻 2017-UBI-53,
号 11,
p. 1-6,
発行日 2017-03-02
|
| ISSN |
|
|
収録物識別子タイプ |
ISSN |
|
収録物識別子 |
2188-8698 |
| Notice |
|
|
|
SIG Technical Reports are nonrefereed and hence may later appear in any journals, conferences, symposia, etc. |
| 出版者 |
|
|
言語 |
ja |
|
出版者 |
情報処理学会 |