Item type |
SIG Technical Reports(1) |
公開日 |
2023-06-22 |
タイトル |
|
|
タイトル |
A Study on generating First-Person Video in moving daily space using variational auto encoders |
タイトル |
|
|
言語 |
en |
|
タイトル |
A Study on generating First-Person Video in moving daily space using variational auto encoders |
言語 |
|
|
言語 |
eng |
キーワード |
|
|
主題Scheme |
Other |
|
主題 |
NC |
資源タイプ |
|
|
資源タイプ識別子 |
http://purl.org/coar/resource_type/c_18gh |
|
資源タイプ |
technical report |
著者所属 |
|
|
|
大阪大学基礎工学研究科/理化学研究所情報統合本部GRP |
著者所属 |
|
|
|
東京理科大学工学部/理化学研究所情報統合本部GRP |
著者所属 |
|
|
|
大阪大学基礎工学研究科 |
著者所属 |
|
|
|
理化学研究所情報統合本部GRP |
著者所属(英) |
|
|
|
en |
|
|
Graduate school of Engineering Science, Osaka University / RIKEN Information R&D and Strategy Headquarters |
著者所属(英) |
|
|
|
en |
|
|
Faculty of Engineering, Tokyo University of Science / RIKEN Information R&D and Strategy Headquarters |
著者所属(英) |
|
|
|
en |
|
|
Graduate school of Engineering Science, Osaka University |
著者所属(英) |
|
|
|
en |
|
|
RIKEN Information R&D and Strategy Headquarters |
著者名 |
徐, 宸飛
岡留, 有哉
石黒, 浩
中村, 泰
|
著者名(英) |
Chenfei, Xu
Yuya, Okadome
Hiroshi, Ishiguro
Yutaka, Nakamura
|
論文抄録 |
|
|
内容記述タイプ |
Other |
|
内容記述 |
近年,ナビゲーション技術の発展により実空間で頑健に移動するロボットが実現してきたが,人間と共存する環境で周囲の人間の動きに合わせて移動するメカニズムは確立されていない.そこで我々は,人間の動作を含む移動中の状態変化を将来のビデオフレームの予測としてモデル化を行うことを考え,人間が歩行中に集めた一人称視点ビデオデータに対するビデオフレームの生成モデルについて実現可能性を調査している.本報告では,ネットワーク構造やロス関数の違いによる生成データの性質について報告する. |
論文抄録(英) |
|
|
内容記述タイプ |
Other |
|
内容記述 |
Current researches on robot navigation mainly emphasize on responsive behaviors, but it usually presents insufficient intelligence if we want robots be better integrated into human society. To cope with this issue, we are tackling to model the change of the state including other person’s motion by using a deep generative model. In terms of Variational Autoencoders, different factors like hyperparameters, the dimensions of latent space and loss function can directly influence the generation quality. However, the concrete effect of these factors still needs to be studied. Thus, this paper works out an investigation which goes deep in this problem. In particular, we built a VAE based generative model with 3D ConvNet for video reconstruction task. Then we have summarized and compared models’ performances with various combinations of influencing factors and discovered their disentangled representation. A Variational Autoencoder with Arbitrary Conditioning(VAEAC) based prediction model was also evaluated. Our results demonstrate how the performance of generative models was changed to offer a good instance for video prediction problem. |
書誌レコードID |
|
|
収録物識別子タイプ |
NCID |
|
収録物識別子 |
AN10505667 |
書誌情報 |
研究報告数理モデル化と問題解決(MPS)
巻 2023-MPS-143,
号 69,
p. 1-6,
発行日 2023-06-22
|
ISSN |
|
|
収録物識別子タイプ |
ISSN |
|
収録物識別子 |
2188-8833 |
Notice |
|
|
|
SIG Technical Reports are nonrefereed and hence may later appear in any journals, conferences, symposia, etc. |
出版者 |
|
|
言語 |
ja |
|
出版者 |
情報処理学会 |