<?xml version='1.0' encoding='UTF-8'?>
<OAI-PMH xmlns="http://www.openarchives.org/OAI/2.0/" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http://www.openarchives.org/OAI/2.0/ http://www.openarchives.org/OAI/2.0/OAI-PMH.xsd">
  <responseDate>2026-03-16T06:30:08Z</responseDate>
  <request metadataPrefix="oai_dc" verb="GetRecord" identifier="oai:ipsj.ixsq.nii.ac.jp:00240551">https://ipsj.ixsq.nii.ac.jp/oai</request>
  <GetRecord>
    <record>
      <header>
        <identifier>oai:ipsj.ixsq.nii.ac.jp:00240551</identifier>
        <datestamp>2025-01-19T07:56:38Z</datestamp>
        <setSpec>1164:3027:11450:11786</setSpec>
      </header>
      <metadata>
        <oai_dc:dc xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:oai_dc="http://www.openarchives.org/OAI/2.0/oai_dc/" xmlns="http://www.w3.org/2001/XMLSchema" xsi:schemaLocation="http://www.openarchives.org/OAI/2.0/oai_dc/ http://www.openarchives.org/OAI/2.0/oai_dc.xsd">
          <dc:title>EngagedSync：MR共有空間内ユーザの相互状況理解向上のための適応的な周辺環境情報抽出・転送システム</dc:title>
          <dc:title>EngagedSync: Enhancing Mixed Reality Collaboration through Situation-Aware Object Extraction and Transfer</dc:title>
          <dc:creator>志村, 魁哉</dc:creator>
          <dc:creator>加納, 一馬</dc:creator>
          <dc:creator>Tahera, Hossain</dc:creator>
          <dc:creator>片山, 晋</dc:creator>
          <dc:creator>浦野, 健太</dc:creator>
          <dc:creator>米澤, 拓郎</dc:creator>
          <dc:creator>河口, 信夫</dc:creator>
          <dc:creator>Kaiya, Shimura</dc:creator>
          <dc:creator>Kazuma, Kano</dc:creator>
          <dc:creator>Tahera, Hossain</dc:creator>
          <dc:creator>Shin, Katayama</dc:creator>
          <dc:creator>Kenta, Urano</dc:creator>
          <dc:creator>Takuro, Yonezawa</dc:creator>
          <dc:creator>Nobuo, Kawaguchi</dc:creator>
          <dc:subject>インタラクション</dc:subject>
          <dc:description>遠隔コラボレーションにおいて，複合現実（MR）技術の活用が進んでいる．MR 技術の大きな利点として，ユーザが現実空間を視認しながら遠隔ユーザとコラボレーションできることが挙げられる．例えば，会議中に部屋を歩き回りながら議論したり，飲食しながらの会話，手元の資料を確認しつつ意見交換を行うなど，現実空間での自然な行動を取り入れたコラボレーションが可能になる．しかし，MR コラボレーションには，現実空間の情報をどの程度共有するかという課題がある．現実空間やユーザの行動に関する情報を過剰に共有するとプライバシ侵害のリスクが生じ，逆に共有が不十分だと遠隔ユーザの状況を把握しづらくなり，コラボレーションの質が低下する恐れがある．この課題を解決するために，我々はユーザの周辺環境情報に基づいて周囲の物体を動的に抽出し，ユーザの映像と統合する MR コラボレーションシステムを提案する．プロトタイプの実装を通じた性能テストとユーザフィードバックにより，システムの有効性を確認する．</dc:description>
          <dc:description>technical report</dc:description>
          <dc:publisher>情報処理学会</dc:publisher>
          <dc:date>2024-11-11</dc:date>
          <dc:format>application/pdf</dc:format>
          <dc:identifier>研究報告ヒューマンコンピュータインタラクション（HCI）</dc:identifier>
          <dc:identifier>10</dc:identifier>
          <dc:identifier>2024-HCI-210</dc:identifier>
          <dc:identifier>1</dc:identifier>
          <dc:identifier>7</dc:identifier>
          <dc:identifier>2188-8760</dc:identifier>
          <dc:identifier>AA1221543X</dc:identifier>
          <dc:identifier>https://ipsj.ixsq.nii.ac.jp/record/240551/files/IPSJ-HCI24210010.pdf</dc:identifier>
          <dc:language>jpn</dc:language>
        </oai_dc:dc>
      </metadata>
    </record>
  </GetRecord>
</OAI-PMH>
