@techreport{oai:ipsj.ixsq.nii.ac.jp:00206857,
 author = {片岡, 瞳 and 伊東, 佑真 and 小中, 祐希 and 大囿, 忠親 and 新谷, 虎松},
 issue = {11},
 month = {Sep},
 note = {講義やプレゼンテーションなどのパフォーマンスにおいて,仮想エージェントとのインタラクションを含む演出は効果的な場合がある.しかし,そのようなコンテンツを作成するには,事前の準備・打ち合わせや,動画撮影後の編集作業といった手間がかかる.本研究では,この課題に取り組むため,ライブパフォーマンスのための AR パペットを実現する.AR パペットは,パフォーマンスを進行中のパフォーマー自身によって制御される拡張現実空間内の仮想エージェントである.本稿では,ライブパフォーマンスのための AR パペットについて検討し,これを制御するためのシステムについて述べる., Performances such as lectures and presentations with interactions among a real performer and virtual agents can be beneficial, but editing such movies are time-consuming. We aim to realize a virtual agent for live performances with AR (Augmented Reality) technologies to support creating such movies. We have been developing an AR puppet, which is a virtual agent in an AR space. Moreover, performers can operate the AR puppet by themselves during their performance like puppet shows. We explore minimal operations of low cognitive load on the operations with AR puppets while conducting performances. This paper describes how to implement AR puppets for our live performance system.},
 title = {ARパペット:ライブパフォーマンスのための拡張現実感による仮想エージェントの試作},
 year = {2020}
}