<?xml version='1.0' encoding='UTF-8'?>
<OAI-PMH xmlns="http://www.openarchives.org/OAI/2.0/" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http://www.openarchives.org/OAI/2.0/ http://www.openarchives.org/OAI/2.0/OAI-PMH.xsd">
  <responseDate>2026-03-06T05:57:40Z</responseDate>
  <request metadataPrefix="jpcoar_1.0" verb="GetRecord" identifier="oai:ipsj.ixsq.nii.ac.jp:00177347">https://ipsj.ixsq.nii.ac.jp/oai</request>
  <GetRecord>
    <record>
      <header>
        <identifier>oai:ipsj.ixsq.nii.ac.jp:00177347</identifier>
        <datestamp>2025-01-20T05:31:58Z</datestamp>
        <setSpec>6164:6165:6640:9062</setSpec>
      </header>
      <metadata>
        <jpcoar:jpcoar xmlns:datacite="https://schema.datacite.org/meta/kernel-4/" xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:dcndl="http://ndl.go.jp/dcndl/terms/" xmlns:dcterms="http://purl.org/dc/terms/" xmlns:jpcoar="https://github.com/JPCOAR/schema/blob/master/1.0/" xmlns:oaire="http://namespace.openaire.eu/schema/oaire/" xmlns:rdf="http://www.w3.org/1999/02/22-rdf-syntax-ns#" xmlns:rioxxterms="http://www.rioxx.net/schema/v2.0/rioxxterms/" xmlns:xs="http://www.w3.org/2001/XMLSchema" xmlns="https://github.com/JPCOAR/schema/blob/master/1.0/" xsi:schemaLocation="https://github.com/JPCOAR/schema/blob/master/1.0/jpcoar_scm.xsd">
          <dc:title>加速度センサを用いたジェスチャ認識における 連続動作の認識手法</dc:title>
          <jpcoar:creator>
            <jpcoar:creatorName>渡邉, 光</jpcoar:creatorName>
          </jpcoar:creator>
          <jpcoar:creator>
            <jpcoar:creatorName>村尾, 和哉</jpcoar:creatorName>
          </jpcoar:creator>
          <jpcoar:creator>
            <jpcoar:creatorName>望月, 祐洋</jpcoar:creatorName>
          </jpcoar:creator>
          <jpcoar:creator>
            <jpcoar:creatorName>西尾, 信彦</jpcoar:creatorName>
          </jpcoar:creator>
          <datacite:description descriptionType="Other">加速度センサを用いてユーザの一回きりの動作であるジェスチャを認識する研究が盛んである．既存のジェスチャ認識の研究では認識したいジェスチャの加速度が正確に切り出されることを前提としており，ジェスチャが間隔を空けずに連続して行われている場合や，ジェスチャの前後で関係のない動作が行われている場合は認識精度が低下してしまうという問題点がある．そこで本研究では，加速度データストリームから教師データとの類似度が高い区間である部分シーケンスを検出し，検出した部分シーケンスの中から尤度の高いものをジェスチャ認識の結果として出力することで，ジェスチャが間隔を空けずに連続して行われている場合や，ジェスチャの前後で関係のない動作が行われている場合でも高精度でジェスチャを認識する手法を提案する．5 名の被験者から観測した加速度データに対して提案手法を適用し，右手で記号を描くジェスチャでは F 値の平均値が 0.78，右手で数字を描くジェスチャでは F 値の平均値が 0.79 となった．</datacite:description>
          <dc:publisher xml:lang="ja">情報処理学会</dc:publisher>
          <datacite:date dateType="Issued">2016-07-06</datacite:date>
          <dc:language>jpn</dc:language>
          <dc:type rdf:resource="http://purl.org/coar/resource_type/c_5794">conference paper</dc:type>
          <jpcoar:identifier identifierType="URI">https://ipsj.ixsq.nii.ac.jp/records/177347</jpcoar:identifier>
          <jpcoar:sourceTitle>マルチメディア，分散協調とモバイルシンポジウム2016論文集</jpcoar:sourceTitle>
          <jpcoar:volume>2016</jpcoar:volume>
          <jpcoar:pageStart>1677</jpcoar:pageStart>
          <jpcoar:pageEnd>1684</jpcoar:pageEnd>
          <jpcoar:file>
            <jpcoar:URI label="IPSJ-DICOMO2016244.pdf">https://ipsj.ixsq.nii.ac.jp/record/177347/files/IPSJ-DICOMO2016244.pdf</jpcoar:URI>
            <jpcoar:mimeType>application/pdf</jpcoar:mimeType>
            <jpcoar:extent>528.7 kB</jpcoar:extent>
            <datacite:date dateType="Available">2016-07-06</datacite:date>
          </jpcoar:file>
        </jpcoar:jpcoar>
      </metadata>
    </record>
  </GetRecord>
</OAI-PMH>
