<?xml version='1.0' encoding='UTF-8'?>
<OAI-PMH xmlns="http://www.openarchives.org/OAI/2.0/" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http://www.openarchives.org/OAI/2.0/ http://www.openarchives.org/OAI/2.0/OAI-PMH.xsd">
  <responseDate>2026-03-15T15:13:43Z</responseDate>
  <request metadataPrefix="oai_dc" verb="GetRecord" identifier="oai:ipsj.ixsq.nii.ac.jp:00088204">https://ipsj.ixsq.nii.ac.jp/oai</request>
  <GetRecord>
    <record>
      <header>
        <identifier>oai:ipsj.ixsq.nii.ac.jp:00088204</identifier>
        <datestamp>2025-01-21T16:54:55Z</datestamp>
        <setSpec>1164:4619:6988:6990</setSpec>
      </header>
      <metadata>
        <oai_dc:dc xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:oai_dc="http://www.openarchives.org/OAI/2.0/oai_dc/" xmlns="http://www.w3.org/2001/XMLSchema" xsi:schemaLocation="http://www.openarchives.org/OAI/2.0/oai_dc/ http://www.openarchives.org/OAI/2.0/oai_dc.xsd">
          <dc:title>人検出のための動的顕著性マップモデルの構築</dc:title>
          <dc:title>A Model of Dynamic Saliency for Human Detection</dc:title>
          <dc:creator>高柳, 陽平</dc:creator>
          <dc:creator>小篠, 裕子</dc:creator>
          <dc:creator>榎並, 直子</dc:creator>
          <dc:creator>有木, 康雄</dc:creator>
          <dc:creator>Youhei, Takayanagi</dc:creator>
          <dc:creator>Yuko, Ozasa</dc:creator>
          <dc:creator>Naoko, Enami</dc:creator>
          <dc:creator>Yasuo, Ariki</dc:creator>
          <dc:description>未学習背景下での動画像からの人検出精度向上のため，動的顕著性マップモデルの構築手法を提案する．顕著性マップは画像中における人の視覚的注意を引く領域を抽出するが，対象のシーンにより有効な顕著』性モデルは異なる．本研究では，静的特徴マップに加えて形状変化量を動的特徴量として抽出し，動的特徴マップから人検出に適した動的顕著性マップモデルを表現する．次に，Adaboostによってアピアランス特徴であるHOG特徴と動的顕著性マップからそれぞれ識別器を構築し，顕著性の高い特徴量を選択を可能とする．提案手法の有効性を確認するため，未学習背景下の動画像を用いて，従来の顕著性モデルとの比較を行った結果，提案手法は検出率となった．</dc:description>
          <dc:description>In this paper, we propose a model of dynamic saliency map for human detection. The saliency map is a model which estimates the bottom-up visual attention in images. However, an effective saliency map model depends on the target scenes. In our method, dynamic saliency map model for human detection is generated from the dynamic feature maps. In the second stage, selection of the high feature of saliency can be achieved by Adaboost. The effectiveness is evaluated with a images captured in real environments.</dc:description>
          <dc:description>technical report</dc:description>
          <dc:publisher>情報処理学会</dc:publisher>
          <dc:date>2013-01-16</dc:date>
          <dc:format>application/pdf</dc:format>
          <dc:identifier>研究報告コンピュータビジョンとイメージメディア（CVIM）</dc:identifier>
          <dc:identifier>29</dc:identifier>
          <dc:identifier>2013-CVIM-185</dc:identifier>
          <dc:identifier>1</dc:identifier>
          <dc:identifier>5</dc:identifier>
          <dc:identifier>AA11131797</dc:identifier>
          <dc:identifier>https://ipsj.ixsq.nii.ac.jp/record/88204/files/IPSJ-CVIM13185029.pdf</dc:identifier>
          <dc:language>jpn</dc:language>
        </oai_dc:dc>
      </metadata>
    </record>
  </GetRecord>
</OAI-PMH>
