ログイン 新規登録
言語:

WEKO3

  • トップ
  • ランキング
To
lat lon distance
To

Field does not validate



インデックスリンク

インデックスツリー

メールアドレスを入力してください。

WEKO

One fine body…

WEKO

One fine body…

アイテム

  1. 論文誌(ジャーナル)
  2. Vol.57
  3. No.12

ミュージアムにおける一人称動画短縮のための場面抽出――自身での振返りと他者との共有

https://ipsj.ixsq.nii.ac.jp/records/176414
https://ipsj.ixsq.nii.ac.jp/records/176414
cb98a4f0-a475-4275-a990-669ba5184fca
名前 / ファイル ライセンス アクション
IPSJ-JNL5712002.pdf IPSJ-JNL5712002.pdf (4.0 MB)
Copyright (c) 2016 by the Information Processing Society of Japan
オープンアクセス
Item type Journal(1)
公開日 2016-12-15
タイトル
タイトル ミュージアムにおける一人称動画短縮のための場面抽出――自身での振返りと他者との共有
タイトル
言語 en
タイトル Automatic Scene Selection of First-person Video for Recalling and Sharing Museum Experiences
言語
言語 jpn
キーワード
主題Scheme Other
主題 [特集:エンタテインメントコンピューティング] 鑑賞体験,一人称動画,自動要約,振返り,共有
資源タイプ
資源タイプ識別子 http://purl.org/coar/resource_type/c_6501
資源タイプ journal article
著者所属
東京大学
著者所属
東京大学
著者所属
東京大学
著者所属(英)
en
The University of Tokyo
著者所属(英)
en
The University of Tokyo
著者所属(英)
en
The University of Tokyo
著者名 長徳, 将希

× 長徳, 将希

長徳, 将希

Search repository
小泉, 直也

× 小泉, 直也

小泉, 直也

Search repository
苗村, 健

× 苗村, 健

苗村, 健

Search repository
著者名(英) Masaki, Chotoku

× Masaki, Chotoku

en Masaki, Chotoku

Search repository
Naoya, Koizumi

× Naoya, Koizumi

en Naoya, Koizumi

Search repository
Takeshi, Naemura

× Takeshi, Naemura

en Takeshi, Naemura

Search repository
論文抄録
内容記述タイプ Other
内容記述 個人が撮影した動画は,そのままでは冗長で見返しにくいという問題がある.本稿では,自身が撮影した動画を,自身での振返りと他者との共有という2つの使用用途に合わせて,適切に場面抽出する方法を検討する.体験型展示の鑑賞で説明員との対話がなされるような,インタラクティブな要素の多い作品展示における鑑賞体験を撮影対象とし,ミュージアム体験の流れの要素である「見る・話す・聞く」場面をピックアップするよう,オプティカルフローと発話検出器を用いたシーンカットを行った.以上の仕組みを用いて,メディアアートの展示会である東京大学制作展においてユーザスタディを実施した.その結果,自身での振返りには,作品を見つめているシーンと自身が発言しているシーンが,他者との共有には,作品を見つめているシーンと説明員が発言しているシーンがダイジェストとして適切であることが明らかになった.
論文抄録(英)
内容記述タイプ Other
内容記述 It is tedious to watch long raw video clips. In this paper, we assumed two types usages of digest video clips: those to recall users' own experiences and those to share users' experiences with others, and examined the appropriate way to edit each of them. We set video clips in which museum visitors can act interactively as the object of our study, and generated video digests using optical flow and speech detector to retrieve scenes associated with users' flow of experiences: “watching” and “talking, listening”. Moreover, we conducted a user study utilizing our system at the iiiExhibition2015, a media art exhibition held by the University of Tokyo. We found that scenes of “watching” and “talking” tended to achieve higher evaluation scores in the case of recalling users' own experiences, whereas scenes of “watching” and “listening” tended to get higher evaluation scores in the case of sharing users' experiences with others.
書誌レコードID
収録物識別子タイプ NCID
収録物識別子 AN00116647
書誌情報 情報処理学会論文誌

巻 57, 号 12, p. 2516-2525, 発行日 2016-12-15
ISSN
収録物識別子タイプ ISSN
収録物識別子 1882-7764
戻る
0
views
See details
Views

Versions

Ver.1 2025-01-20 05:51:39.240965
Show All versions

Share

Mendeley Twitter Facebook Print Addthis

Cite as

エクスポート

OAI-PMH
  • OAI-PMH JPCOAR
  • OAI-PMH DublinCore
  • OAI-PMH DDI
Other Formats
  • JSON
  • BIBTEX

Confirm


Powered by WEKO3


Powered by WEKO3