<?xml version='1.0' encoding='UTF-8'?>
<OAI-PMH xmlns="http://www.openarchives.org/OAI/2.0/" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http://www.openarchives.org/OAI/2.0/ http://www.openarchives.org/OAI/2.0/OAI-PMH.xsd">
  <responseDate>2026-03-11T21:55:45Z</responseDate>
  <request metadataPrefix="oai_dc" verb="GetRecord" identifier="oai:ipsj.ixsq.nii.ac.jp:00057105">https://ipsj.ixsq.nii.ac.jp/oai</request>
  <GetRecord>
    <record>
      <header>
        <identifier>oai:ipsj.ixsq.nii.ac.jp:00057105</identifier>
        <datestamp>2025-01-22T04:38:47Z</datestamp>
        <setSpec>1164:5159:5186:5189</setSpec>
      </header>
      <metadata>
        <oai_dc:dc xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:oai_dc="http://www.openarchives.org/OAI/2.0/oai_dc/" xmlns="http://www.w3.org/2001/XMLSchema" xsi:schemaLocation="http://www.openarchives.org/OAI/2.0/oai_dc/ http://www.openarchives.org/OAI/2.0/oai_dc.xsd">
          <dc:title>発話と姿勢にもとづくインタラクション分析の検討</dc:title>
          <dc:title>A Study on Interaction Analysis System based on Utterance and Posture</dc:title>
          <dc:creator>伊藤禎宣</dc:creator>
          <dc:creator>岩澤, 昭一郎</dc:creator>
          <dc:creator>角, 康之</dc:creator>
          <dc:creator>間瀬, 健二</dc:creator>
          <dc:creator>Sadanori, Ito</dc:creator>
          <dc:creator>Shoichiro, Iwasawa</dc:creator>
          <dc:creator>Yasuyuki, Sumi</dc:creator>
          <dc:creator>Kenji, Mase</dc:creator>
          <dc:description>開放的な空間における複数人のインタラクション過程を様々なセンサ群で網羅的に記録し、リアルタイムにインタラクション状況のプリミティブや社会的イベントを判定してインデクシングを行う、インタラクションコーパスの自動構築システムを開発している。コーパス化された体験記録を用いたコンテンツアプリケーションとして、体験映像のサマリ生成やカタログ化などの試みを行っている。本稿では、このようなコンテンツハンドリングを目的とした体験の記録と分析について、運用の過程で明らかになった問題点と、その対策について述べる。</dc:description>
          <dc:description>We are developing a system for automatic creation of interaction corpus that has function of recording interaction among users in open space by various sensors, detecting interaction primitive and social event on real time, and indexing. In this paper, we propose a system for recording interaction, and supporting visitors at an exhibition site using outcome of interaction recognition. That consists of wearable and ubiquitous sensor devices, head mounted display, robot and video summary system.</dc:description>
          <dc:description>technical report</dc:description>
          <dc:publisher>情報処理学会</dc:publisher>
          <dc:date>2004-07-16</dc:date>
          <dc:format>application/pdf</dc:format>
          <dc:identifier>情報処理学会研究報告音声言語情報処理（SLP）</dc:identifier>
          <dc:identifier>74(2004-SLP-052)</dc:identifier>
          <dc:identifier>2004</dc:identifier>
          <dc:identifier>7</dc:identifier>
          <dc:identifier>14</dc:identifier>
          <dc:identifier>AN10442647</dc:identifier>
          <dc:identifier>https://ipsj.ixsq.nii.ac.jp/record/57105/files/IPSJ-SLP04052002.pdf</dc:identifier>
          <dc:language>jpn</dc:language>
        </oai_dc:dc>
      </metadata>
    </record>
  </GetRecord>
</OAI-PMH>
