Item type |
SIG Technical Reports(1) |
公開日 |
2019-02-28 |
タイトル |
|
|
タイトル |
動作学習のための映像情報を用いたオンサイト視覚フィードバック方式 |
タイトル |
|
|
言語 |
en |
|
タイトル |
On-Site Visual Feedback Method Using Video Information for Motor Learning |
言語 |
|
|
言語 |
jpn |
キーワード |
|
|
主題Scheme |
Other |
|
主題 |
テーマセッション |
資源タイプ |
|
|
資源タイプ識別子 |
http://purl.org/coar/resource_type/c_18gh |
|
資源タイプ |
technical report |
著者所属 |
|
|
|
筑波大学システム情報工学研究科 |
著者所属 |
|
|
|
筑波大学計算科学研究センター |
著者所属 |
|
|
|
筑波大学計算科学研究センター |
著者所属 |
|
|
|
筑波大学計算科学研究センター |
著者所属(英) |
|
|
|
en |
|
|
University of Tsukuba. Graduate school of system and information engineering. |
著者所属(英) |
|
|
|
en |
|
|
University of Tsukuba. Center for computational sciences. |
著者所属(英) |
|
|
|
en |
|
|
University of Tsukuba. Center for computational sciences. |
著者所属(英) |
|
|
|
en |
|
|
University of Tsukuba. Center for computational sciences. |
著者名 |
永井, 隆昌
宍戸, 英彦
亀田, 能成
北原, 格
|
著者名(英) |
Takasuke, Nagai
Hidehiko, Shishido
Yoshinari, Kameda
Itaru, Kitahara
|
論文抄録 |
|
|
内容記述タイプ |
Other |
|
内容記述 |
本稿では,多視点映像を取得してからバレットタイム映像を生成・提示するまでの全ての処理をリアルタイムで実行するオンサイト視覚フィードバック方式について述べる.スポーツシーンのような動的な状況下においてオンサイト視覚フィードバックを実現するためには,バレットタイム映像を観察する際の注視点を自動的に設定する必要がある.本研究では,RGB-D カメラによる被写体の 3 次元位置検出とリアルタイムバレットタイム映像生成法を組み合わせ,測定した 3 次元位置に基づいた注視点の自動設定を実現する.さらに,対象とする動作を学習するために重要なフレームを検出し,そのフレームを観察するのに最も適した視点に多視点映像を自動的に切替える機能を組み込むことにより,閲覧操作の簡単化を試みる. |
論文抄録(英) |
|
|
内容記述タイプ |
Other |
|
内容記述 |
This paper proposes an on-site visual feedback method for using multiple viewpoint videos in motor learning. There are two requirements to be satisfied in order to use multiple viewpoint videos in motor learning. The first requirement is to execute all processes from acquisition of multiple viewpoint videos to presentation in real-time, and to realize both real-time visual feedback and delayed visual feedback. In this research, real-time processing is realized by controlling all cameras with one computer and losing offline work. The second requirement is to minimize the operation of the viewer so that the viewer can concentrate on the observation of the motion. This research automates two operations, "target point setting" and " viewpoint switching", which are operations by viewer. We introduce the RGB-D camera that detects the position of the subject in real-time. By automatically setting the target point on the subject based on the 3D position of the subject measured by the RGB-D video, the " target point setting" operation is automated. Furthermore, the posture of the subject is detected using the RGB-D video and machine learning. By detecting the moment when the viewer wants to observe and automatically switching the multiple viewpoint videos in the direction in which the viewer wants to observe the posture, the "viewpoint switching" operation is automated. We verify that the proposed method works correctly by demonstration experiment. |
書誌レコードID |
|
|
収録物識別子タイプ |
NCID |
|
収録物識別子 |
AA11131797 |
書誌情報 |
研究報告コンピュータビジョンとイメージメディア(CVIM)
巻 2019-CVIM-216,
号 15,
p. 1-8,
発行日 2019-02-28
|
ISSN |
|
|
収録物識別子タイプ |
ISSN |
|
収録物識別子 |
2188-8701 |
Notice |
|
|
|
SIG Technical Reports are nonrefereed and hence may later appear in any journals, conferences, symposia, etc. |
出版者 |
|
|
言語 |
ja |
|
出版者 |
情報処理学会 |