<?xml version='1.0' encoding='UTF-8'?>
<OAI-PMH xmlns="http://www.openarchives.org/OAI/2.0/" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http://www.openarchives.org/OAI/2.0/ http://www.openarchives.org/OAI/2.0/OAI-PMH.xsd">
  <responseDate>2026-03-14T17:33:31Z</responseDate>
  <request metadataPrefix="jpcoar_1.0" verb="GetRecord" identifier="oai:ipsj.ixsq.nii.ac.jp:00174458">https://ipsj.ixsq.nii.ac.jp/oai</request>
  <GetRecord>
    <record>
      <header>
        <identifier>oai:ipsj.ixsq.nii.ac.jp:00174458</identifier>
        <datestamp>2025-01-20T06:42:41Z</datestamp>
        <setSpec>1164:4619:8450:8895</setSpec>
      </header>
      <metadata>
        <jpcoar:jpcoar xmlns:datacite="https://schema.datacite.org/meta/kernel-4/" xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:dcndl="http://ndl.go.jp/dcndl/terms/" xmlns:dcterms="http://purl.org/dc/terms/" xmlns:jpcoar="https://github.com/JPCOAR/schema/blob/master/1.0/" xmlns:oaire="http://namespace.openaire.eu/schema/oaire/" xmlns:rdf="http://www.w3.org/1999/02/22-rdf-syntax-ns#" xmlns:rioxxterms="http://www.rioxx.net/schema/v2.0/rioxxterms/" xmlns:xs="http://www.w3.org/2001/XMLSchema" xmlns="https://github.com/JPCOAR/schema/blob/master/1.0/" xsi:schemaLocation="https://github.com/JPCOAR/schema/blob/master/1.0/jpcoar_scm.xsd">
          <dc:title>画像分類を用いた一人称行動認識</dc:title>
          <jpcoar:creator>
            <jpcoar:creatorName>瀬川, 雄太</jpcoar:creatorName>
          </jpcoar:creator>
          <jpcoar:creator>
            <jpcoar:creatorName>川本, 一彦</jpcoar:creatorName>
          </jpcoar:creator>
          <jpcoar:creator>
            <jpcoar:creatorName>岡本, 一志</jpcoar:creatorName>
          </jpcoar:creator>
          <datacite:description descriptionType="Other">本研究では，学習済み DCNN (deep convolutional neural network) の fine-tuning を利用した，画像分類ベースの一人称行動認識を行う手法を提案する．画像認識問題において state-of-the-art な DCNN の学習や，学習済み DCNN モデルの fine-tuning のような再学習は魅力的な手法である．しかしながら，必要となる訓練データを正解ラベルとともに大量収集することはコストが高い．一方で，一人称視点行動に付随する物体は映像中に現れやすく，かつ映像を通して見えの変化が小さいため，これを認識するための画像生成は容易に行うことができる．そこで，行動に付随する物体の画像を人工的に生成し背景画像と合成することで，一人称行動認識に向けた訓練画像を用意する．人工訓練データセットを用いて，学習済み DCNN モデルにおける最終層を fine-tuning し，domain-specific な応用の検証を行う．実験では，実際に撮影した一人称視点映像 20 種について，画像分類ベースの一人称読書行動認識の精度を評価する．人工訓練データセットに関する検証として，背景画像選択および人工本画像のための生成処理選択が，識別精度に与える影響を調査する．前者の検証において，ImageNet 画像を背景合成した訓練画像を用いて，ImageNet データセットを学習済みの Inception-v3 モデルを fine-tuning した場合に最も精度が高く，F 値にして 91.8% であった．後者の検証において，本表面のテクスチャを描画する処理が最も識別精度を高めることがわかり，この処理を付加した訓練画像による評価ではいずれも 85% 以上の F 値を得た．</datacite:description>
          <dc:publisher xml:lang="ja">情報処理学会</dc:publisher>
          <datacite:date dateType="Issued">2016-08-29</datacite:date>
          <dc:language>jpn</dc:language>
          <dc:type rdf:resource="http://purl.org/coar/resource_type/c_18gh">technical report</dc:type>
          <jpcoar:identifier identifierType="URI">https://ipsj.ixsq.nii.ac.jp/records/174458</jpcoar:identifier>
          <jpcoar:sourceIdentifier identifierType="ISSN">2188-8701</jpcoar:sourceIdentifier>
          <jpcoar:sourceIdentifier identifierType="NCID">AA11131797</jpcoar:sourceIdentifier>
          <jpcoar:sourceTitle>研究報告コンピュータビジョンとイメージメディア（CVIM）</jpcoar:sourceTitle>
          <jpcoar:volume>2016-CVIM-203</jpcoar:volume>
          <jpcoar:issue>49</jpcoar:issue>
          <jpcoar:pageStart>1</jpcoar:pageStart>
          <jpcoar:pageEnd>8</jpcoar:pageEnd>
          <jpcoar:file>
            <jpcoar:URI label="IPSJ-CVIM16203049.pdf">https://ipsj.ixsq.nii.ac.jp/record/174458/files/IPSJ-CVIM16203049.pdf</jpcoar:URI>
            <jpcoar:mimeType>application/pdf</jpcoar:mimeType>
            <jpcoar:extent>6.3 MB</jpcoar:extent>
            <datacite:date dateType="Available">2018-08-29</datacite:date>
          </jpcoar:file>
        </jpcoar:jpcoar>
      </metadata>
    </record>
  </GetRecord>
</OAI-PMH>
