@techreport{oai:ipsj.ixsq.nii.ac.jp:00036889, author = {角, 康之 and 岩澤, 昭一郎 and 間瀬, 健二 and Yasuyuki, Sumi and Shoichiro, Iwasawa and Kenji, Mase}, issue = {69(2003-HI-104)}, month = {Jul}, note = {人のインタラクションを理解し次世代ヒューマンインターフェースの実現に役立てるため、映像、音声、視線情報、生理データなどのマルチモーダルなデータで構成されるインタラクション・コーパスの構築を進めている。本稿では、記録された大量のインタラクション・データからインタラクションの構造をモデル化するための分析作業を支援するためのツール試作について報告し、今後の研究ロードマップを提案する。, We propose to build an interaction corpus in order to understand the verbal/nonverbal mechanism of human interactions. Our approach is to employ wearable sensors (camera, microphone, physiological sensors) as well as ubiquitous sensors (camera, microphone, etc.); and to capture events from multiple viewpoints simultaneously. This paper presents a tool to interactively browse and analyse the huge amount of captured data.}, title = {インタラクション・コーパス分析ツールの試作}, year = {2003} }