@techreport{oai:ipsj.ixsq.nii.ac.jp:00056722,
 author = {瀬戸口, 久雄 and 高梨, 克也 and 河原, 達也 and Hisao, SETOGUCHI and Katsuya, TAKANASHI and Tatsuya, KAWAHARA},
 issue = {75(2007-SLP-067)},
 month = {Jul},
 note = {我々は多数の研究者と協力して,会話をマルチモーダル(言語・非言語)な観点で分析できるような実験環境(IMADEルーム)を構築している.本研究では,話し手1名,聞き手2名からなるポスター会話を題材として,各話者の音声に加えて,視線やうなずき,ポインティング動作などを様々なセンサで記録した.本稿では,この仕様について述べるとともに,あいづちとうなずきに着目して,発話と視線との関係を分析した結果について報告する., We are constructing a research environment called "IMADE room" which can capture a variety of multi-modal human interactions. With this setting, we have designed and conducted recordings of poster sessions by one presenter and two listeners.  In addition to speech data of individual speakers, gazing, nodding and pointing events are recorded through multiple sensors.  In this article, we describe the specification of the experiments and preliminary analysis on the relationship between verbal and non-verbal events.},
 title = {多数のセンサを用いたポスター会話の収録とその分析},
 year = {2007}
}